L’Intelligenza Artificiale negli ambienti di lavoro: tra fantascienza, business e realtà

ADAPT - Scuola di alta formazione sulle relazioni industriali e di lavoro
Per iscriverti al Bollettino ADAPT clicca qui
Per entrare nella Scuola di ADAPT e nel progetto Fabbrica dei talenti scrivi a: selezione@adapt.it

Bollettino ADAPT 10 giugno 2019, n. 22

 

Di Intelligenza Artificiale (IA), al giorno d’oggi, non si finisce più di parlare: testate giornalistiche, riviste scientifiche, convegni e chi più ne ha più ne metta continuano a raccontarne di ogni al riguardo, stimolando un interesse e una curiosità crescenti nei confronti di questo affascinante ma poco esplorato “fenomeno”. Ma quanto si conosce, realmente, al riguardo? Quando è nata l’espressione “Intelligenza Artificiale” e quando il dibattito che ruota intorno ad esso e che, repentinamente, è esploso? Cosa rappresenta, oggi, l’IA per lo sviluppo produttivo, economico e sociale del lavoro?

 

Con il report pubblicato il 15 maggio scorso l’EU-OSHA, l’Agenzia Europea per la Salute e la Sicurezza sul Lavoro, con sede a Bilbao e da poco “venticinquenne”, ha cercato di dare risposta a queste e ad altre domande, concentrandosi poi sugli effetti, benefici e non, che gli strumenti di IA possono determinare in termini di salute e sicurezza negli ambienti di lavoro.

 

L’espressione “Artificial Intelligence” nasce nell’ambito di una serie di workshops promossi, nel 1956 al Dartmouth College in New Hampshire, da un gruppo di accademici capitanato da John McCarthy, mossi dall’aspirazione di poter insegnare alle macchine a migliorarsi autonomamente e a risolvere problemi tipicamente riservati all’uomo, ad atteggiarsi, in pratica, ad essere umano: la conferenza non ebbe grande successo, ma inaugurò il discorso che, dopo un lungo periodo tra alti e bassi, di oscillazioni tra l’ottimismo che i robot potessero diventare intelligenti quanto e più dell’uomo e lo sconforto indotto dai numerosi fallimenti, è oggi tanto in voga.

 

È da allora che si susseguono, senza sosta, diversi tentativi di definire questo inizialmente etereo fenomeno, fino alla definizione che l’Agenzia ha mutuato dalla Commissione UE, la quale ha declinato l’IA in termini di sistemi capaci di porre in essere comportamenti “intelligenti” attraverso l’analisi delle condizioni proprie e dell’ambiente circostante e di assumere decisioni, con un certo grado di autonomia, in vista del raggiungimento di determinati obiettivi[1].

 

Andando più nel dettaglio e cominciando ad entrare nel posto di lavoro, si scopre poi la distinzione tra “Weak AI”, per tali intendendosi forme di IA più assistenziali e incapaci di pensare, imparare, essere autonome, quelle dunque con funzione servente, strumentale rispetto all’attività, anche lavorativa, dell’uomo, e “Strong or Universal AI”, espressione da riferirsi invece a quegli apparecchi in grado, quantomeno in potenza, di “pensare”, “apprendere”, “evolversi” e “decidere” autonomamente, quei robot, in pratica, di cui Alan Turing indagava, già nelle ricerche pubblicate nel 1950 nel libro Can machines think?, un’eventuale intellegibilità, questi sì avvertiti come minacce ai posti di lavoro umani in quanto capaci, un domani ma anche oggi, di comportarsi come l’uomo, e di ridurre il medesimo ad una funzione meramente strumentale rispetto all’attività della macchina. Sono questi ultimi, infatti, quelli che, attraverso l’assistenza fornita dai c.d. Big Data e la disponibilità di Internet e delle sue infinite potenzialità di interazione, comunicano con i propri “simili”, generando quell’ampio ambito, anch’esso di crescente esplorazione, che prende il nome di “Internet delle Cose”[2].

 

Quanto alla pericolosità degli strumenti di IA in un ambiente di lavoro, le insidie nascono già prima di un’eventuale assunzione, ovvero al momento, prodromico ad essa, della selezione e valutazione dei candidati, attività che occupa una buona parte della vita quotidiana degli uffici HR e che oggi viene crescentemente assorbita dagli strumenti c.d. di people analytics: anche note come “human analytics”, “talent analytics” e “human resource analytics”, tali risorse consentono, nell’era delle “strategic HR”, di combinare dati non soltanto relativi all’attività lavorativa, ma anche rispetto alla vita privata del lavoratore, andando oltre le capacità umane (soprattutto tempistiche e quantitative) di incrociare informazioni ricavandone risultati, aiutando la direzione nelle scelte riguardanti il personale, e acquisendo una crescente fiducia da parte della stessa.

 

Un’ulteriore strategia di people analytics è rappresentata dalle interviste in cui gli strumenti di IA registrano ogni input dell’intervistato, tanto verbale quanto non, tecnica che, oltre a dimostrare la generale e diffusa preferenza per il candidato maschio, eterosessuale e di pelle bianca (lo stesso vale nei confronti delle donne quanto al lavoro domestico della gig-economy), potrebbe essere virtuosamente sfruttata per eliminare pregiudizi del genere, così come anche per occultarli rendendo un trattamento apparentemente legittimo.

 

È proprio il rischio discriminatorio uno dei principali elementi di pericolo che contraddistinguono gli strumenti di IA, ai quali va certamente negato il ruolo di depositari dell’obiettività assoluta, posto che, da questo punto di vista, le macchine si rivelano realmente “umane”, in quanto fonti di potenziali discriminazioni (anche pesanti) a danno dei candidati o dei lavoratori: le informazioni raccolte, infatti, sono spesso parziali, non potendo investire ogni attimo della vita quotidiana della persona, e ciò provoca il rischio di una base informativa diversa tra i vari soggetti. Una tale asimmetria, il più delle volte, rimane irrisolta, nel senso che la mancata mediazione dell’uomo (e delle sue valutazioni qualitativamente comparate) lascia intatta questa idiosincrasia che, tra l’altro, rischia di divampare a fronte di malfunzionamenti tecnici (come può essere nel caso in cui un robot risponda allo stesso modo in due situazioni diverse) o, soprattutto, nel caso in cui l’algoritmo che governa il funzionamento della macchina “erediti” le discriminazioni del programmatore (si pensi ai programmi informatici volti appunto alla selezione del nuovo personale, calibrati su elementi suscettibili di risultare discriminatori, com’è nel caso di quelli che escludono tout court donne in gravidanza o candidati di una determinata provenienza geografica). Senza contare poi il rischio giuridico di infrangere il disposto dell’art. 8 dello Statuto dei Lavoratori (la l. n. 300/1970), che vieta ogni forma di valutazione su qualsivoglia elemento estraneo alla qualificazione professionale del lavoratore.

 

Gli stessi strumenti, tuttavia, se ben congegnati tanto a livello tecnico quanto in termini di rispetto dell’ordinamento giuridico (e dunque anche dell’art. 8 dello Statuto), possono altresì rivelarsi utili nell’affrancare le valutazioni riguardanti il personale o il potenziale tale dal soggettivismo degli impiegati che compongono l’ufficio HR, nel senso di limitare, quantitativamente ma anche qualitativamente, l’oggetto dell’indagine agli elementi realmente rilevanti ai fini di una decisione disciplinare o di una assunzione.

 

Entrando nella c.d. Industria 4.0, governata da sistemi sempre più sofisticati di digitalizzazione della gestione logistica e organizzativa del lavoro, crescono i rischi per la salute e sicurezza dell’uomo, legati all’insorgere di stress o patologie ansiogene derivanti dall’incremento produttivo dei ritmi indotto dalle macchine stesse, soprattutto quando i lavoratori non sono informati circa il trattamento dei dati che è alla base del funzionamento di tali strumenti, ma anche qualora lo siano e siano per ciò consapevoli che da tale forma, magari velata, di sorveglianza possano derivarne conseguenze anche disciplinari, il che potrebbe indurre gli stessi lavoratori a ritmi estenuanti con potenziali pregiudizi in termini di salute e sicurezza. La situazione si aggrava a fronte di implementazioni frettolose e non accompagnate da opportuni corsi di formazione, utili appunto nel corroborare la consapevolezza degli interessati rispetto al funzionamento di tali tecnologie e, conseguentemente, la fiducia da essi riposta nelle stesse.

 

Ma il profilo discriminatorio non è l’unico gravido di insidie per la dignità del lavoratore, la quale è messa ulteriormente a repentaglio nell’ambito dei grandi magazzini tipici del settore industriale, ove, spesso, l’IA si confonde con l’automazione, che invece consiste nella sostituzione del braccio umano con quello robotico, e che consente di allontanare i lavoratori da diversi rischi di SSL sostituendosi ad essi nelle mansioni più routinarie. Queste realtà sono popolate da un crescente numero di c.d. cobots (collaborative robots), autori di diversi benefici anche in termini di SSL, ma al tempo stesso potenziali fonti di pericolo: al persistente rischio di sostituzione dei lavori umani e non soltanto quelli più routinari o ripetitivi (si pensi alla valutazione dei rischi, che ben può essere effettuata ormai anche da uno strumento digitale), si associa il costante pericolo che tali apparecchi cadano in mal funzionamenti che possano compromettere la tranquilla convivenza coi “colleghi” umani, sul cui rapporto rischia di incidere negativamente anche il fatto che l’uomo sia indotto a lavorare al ritmo della macchina (piuttosto che viceversa). A ciò si aggiungono le criticità relative alla determinazione delle responsabilità, anche giuridiche, nel caso in cui la macchina provochi dei danni[3].

 

Ad “affollare” ulteriormente i magazzini dell’industria 4.0 contribuiscono poi gli strumenti c.d. wearables, ovvero dispositivi indossabili dall’uomo e idonei a carpire informazioni dall’ambiente circostante e a dare eventuali indicazioni, sulla base delle stesse, al lavoratore, utili anche nella prevenzione e nel contrasto rispetto al verificarsi di eventi lesivi della salute dell’uomo stesso (si pensi a uno strumento capace di rilevare la presenza di uomo a terra o di sostanze tossiche in misura superiore a quella consentita). Gli stessi apparecchi, inoltre, sono in grado di adempiere ad un utile funzione di training rispetto ai lavoratori meno qualificati, oltre a sostituire completamente penna e quaderno: basti pensare ai Google Glasses che riproducono virtualmente contesti reali, con potenziate capacità di apprendimento per i lavoratori, i quali possono però scontare una mancanza di comunicazione con le macchine, o meglio una incomprensione con il rispettivo linguaggio che, oltre a poter essere positivamente attenuata tramite la formazione e l’esperienza, induce a riflettere sull’effetto complessivo dell’IA sui ritmi di lavoro, lo stress, la qualità del lavoro stesso.

 

All’indagine dell’Agenzia europea non potevano poi sfuggire i modelli di business, di recente diffusione, che compongono quella fetta crescente di mercato che prende il nome c.d. di gig economy, in cui il fattore digitale-tecnologico riveste una posizione di essenzialità: si allude, in pratica, a tutte quelle forme lavorative incentrate sull’utilizzo di applicazioni chiamate piattaforme (v. Uber, Upwork or Amazon Mechanical Turk (AMT)), le quali, talvolta non includendo strumenti di IA, svolgono un rilevante ruolo di intermediazione nella domanda e offerta di prodotti e servizi ma anche e soprattutto di combinazione dei dati, recensioni e quant’altro sia utile alle valutazioni dei clienti o degli offerenti incidendo, di conseguenza, sulle preferenze degli stessi, come dimostra il rilevante peso assunto dalla digitalizzazione nei business di Deliveroo o Uber, solo per citarne alcuni, ma anche DiDi, un’applicazione cinese di servizio di guida, in cui lo strumento del riconoscimento facciale fungeva da strumento di prevenzione dei reati, nonostante l’esperienza riporti comunque di uno pseudo-autista reo dell’assassinio di un passeggero.

 

Seppur apprezzata nella misura in cui consente una pur labile formalizzazione giuridica dei rapporti di lavoro, la gig-economy non consente però la piena liberazione dal rischio di lavori sotto-qualificati e sottopagati: si pensi al tempo speso, e in forma completamente gratuita, per il miglioramento della propria reputazione (fondamentale per il successo on-line di un gig-worker, posto che l’algoritmo di frequente sponsorizza chi ha manifestato la più ampia disponibilità ed efficienza o chi abbia ottenuto il più alto tasso di soddisfazione della clientela) e lo sviluppo delle proprie competenze, complice la frequente diffusione di forme obbligatoriamente autonome di lavoro che precludono l’esercizio di diversi diritti, non ultimi quelli sindacali, ma anche quelli alla sicurezza, alla salute, all’equilibrio tra vita privata e vita lavorativa, alla formazione continua, ad una retribuzione equa e dignitosa.

 

Nata come un’aspirazione, dunque, l’IA rappresenta oggi un importante fattore di sviluppo per le diverse realtà industriali, i cui investimenti in ricerca e sviluppo di forme artificialmente intelligenti continuano a crescere senza sosta: lo sviluppo tecnologico costituisce infatti uno degli elementi tramite i quali misurare la competitività globale delle imprese, e in questo ambito l’IA è destinata ad acquisire una crescente rilevanza.

 

Per il successo pratico di queste forme di IA, tuttavia, sarà necessaria un’implementazione che valorizzi più “la funzione sociale” di tali strumenti piuttosto che la loro “funzione produttiva”, rendendoli il più possibile rispettosi della dignità umana, che dalle stesse forme riceve duri colpi sotto il profilo della tutela dei dati personali e della salute e sicurezza del lavoratore, fattori capaci di incidere negativamente sulla reputazione di una data realtà produttiva e conseguentemente sul successo della stessa.

 

Ecco perché anche il rispetto delle normative poste a presidio della salute, sicurezza e protezione dei dati personali assurge a vero e proprio fattore di competitività e attrattività aziendale, imprescindibile nelle strategie di consolidamento e miglioramento della propria posizione di mercato, ed ecco perché la Dichiarazione di Filadelfia, con cui nel 1919 nacque l’Organizzazione Internazionale del Lavoro, si è da ultimo impreziosita dell’eloquente affermazione secondo cui “labour is not accomodity; nor it is robot”.

 

Andrea Tundo

Scuola di dottorato in Formazione della persona e mercato del lavoro

Università degli Studi di Bergamo

@tundo_andrea

 

[1] La quale aveva provato a rispondere alla domanda sul cosa fosse l’IA nella Communication on artificial intelligence for Europe, Brussels: European Commission, pag. 1, del 25 aprile 2018, in cui si legge che l’“Artificial Intelligence” “refers to systems that display intelligent behaviour by analysing their environment and taking actions — with some degree of autonomy — to achieve specific goals”.

[2] L’espressione originale è di “Internet of Things”, coniata da Kevin Ashton nel 1999 in occasione di una presentazione presso Procter & Gamble (fonte: Wikipedia 2019, consultato, da ultimo, il 3 giugno 2019).

[3] Il rapporto tra robot e uomo nell’ambito dell’Industry 4.0, soprattutto con riferimento al tema della protezione della salute e sicurezza del lavoro, è indagato dalla stessa EU-OSHA nel report Foresight on new and emerging occupational safety and health risks associated with digitalisation by 2025, EU-OSHA 2018, qui commentato.

 

L’Intelligenza Artificiale negli ambienti di lavoro: tra fantascienza, business e realtà
Tagged on: