L’intelligenza artificiale e il diritto del lavoro*

ADAPT – Scuola di alta formazione sulle relazioni industriali e di lavoro

Per iscriverti al Bollettino ADAPT clicca qui

Per entrare nella Scuola di ADAPT e nel progetto Fabbrica dei talenti scrivi a: selezione@adapt.it

Bollettino ADAPT 15 gennaio 2024 n. 2
 
1. Come agisce l’intelligenza artificiale nel diritto del lavoro e sui rapporti di lavoro?

Vi è una letteratura imponente, economica e sociologica e, in parte, giuridica, sull’uso degli algoritmi nel rapporto di lavoro.

V’è un noto libro (di giovani giuslavoristi, Aloisi e De Stefano[1]) intitolato significativamente “Il tuo capo è un algoritmo” per indicare la spersonalizzazione – con tutte le conseguenze che comporta e che vedremo – derivante dall’impiego degli algoritmi nei rapporti di lavoro.
 
Nel nostro sistema, i problemi originati dall’uso degli algoritmi nel rapporto di lavoro sono emersi in sede giudiziaria essenzialmente nel caso del lavoro prestato tramite piattaforma digitale, e, in particolare, dei riders, ciclofattorini, corrieri impiegati nella consegna di beni, specialmente cibo, a domicilio.

Intendiamoci: il lavoro tramite piattaforma non si riduce a quello dei ciclofattorini (basti pensare all’attività dei creatori di contenuti digitali, i cd. influencer, tik toker ecc.): il web è vasto e grande è la varietà di rapporti di lavoro che ospita.

Nella nostra pratica giudiziaria, tuttavia, è emersa essenzialmente la questione dei riders. A questo proposito, vi è tutto un capitolo, che in questa sede ci interessa meno, relativo alla qualificazione del rapporto di lavoro dei riders come subordinato, eterorganizzato, autonomo o coordinato.
 
L’aspetto che ci interessa di più, e che già è emerso in sede giudiziaria, concerne la questione se e come l’algoritmo, che di per sé è solo una sequenza logico – matematica, possa produrre decisioni discriminatorie sia dirette sia soprattutto indirette. La discriminazione indiretta è, come noto, quella derivante dall’applicazione di un criterio apparentemente neutro ma che ha l’effetto di svantaggiare in modo proporzionalmente maggiore un gruppo di lavoratori appartenenti ad una categoria protetta in relazione ai fattori di rischio (appartenenza ad un determinato sesso, fede religiosa, orientamento politico, affiliazione ed attività sindacale, età e così via).
 
Ad es., in un famoso caso discusso dal Tribunale di Bologna nel 2020[2], a seguito di un’azione promossa da diversi sindacati aderenti alla CGIL, sulla base dell’art. 28 d. lgs. n. 150/2011, il giudice ha accertato la “discriminatorietà” delle condizioni di accesso alle sessioni di lavoro (turni) previste dalla piattaforma digitale utilizzata da Deliveroo Italia. E tali condizioni sono state ritenute discriminatorie perché nel contratto tipo si prevedeva che il rider potesse prenotarsi per gli slot (turni di lavoro) per lui più confacenti (cioè più redditizi) in base al suo indice di affidabilità (cd. ranking reputazionale) derivante anche dal numero di volte in cui egli avesse partecipato o meno ad una sessione già prenotata.
 
Infatti, una delle caratteristiche dei sistemi organizzativi che queste piattaforme adottano – e che dà, poi, anche dei problemi in sede di qualificazione del rapporto, come subordinato o autonomo – è che il lavoratore, sebbene abbia prenotato un turno (una sessione), è libero di accettare o rifiutare qualsiasi proposta di servizio.
 
Ebbene, a parere del giudicante, questo sistema, che premia il rider in base al suo indice di affidabilità, lo pregiudica nel caso in cui egli voglia, come era avvenuto a Bologna, partecipare ad una astensione collettiva dal lavoro (peggiorandone il ranking reputazionale). E dunque realizza una forma di “discriminazione indiretta” poiché con l’applicazione di una disposizione apparentemente neutra (la normativa contrattuale sulla cancellazione anticipata delle sessioni prenotate) mette una determinata categoria di lavoratori (quelli partecipanti ad iniziative sindacali di astensione dal lavoro) in una posizione di potenziale particolare svantaggio. Peraltro, a seguito del ricorso, ed ancor prima dell’ordinanza in oggetto, Deliveroo ha abbandonato il sistema di prenotazione dei turni di cui sopra.
 
Più recentemente anche il Tribunale di Palermo[3], sempre su ricorso di sindacati di categoria aderenti alla CGIL, ex art. 28 d. lgs. n. 150/2011, nei confronti, questa volta, di Foodinho, ha ritenuto la potenziale discriminatorietà del sistema organizzativo della convenuta che, nell’accesso alle occasioni di lavoro, premia (consentendo al rider di prenotarsi in anticipo rispetto ai colleghi per i turni di lavoro più redditizi) i più affidabili in relazione al lavoro prestato nei fine settimana e alla assiduità al lavoro. Perché potenzialmente discriminatorio? Perché finirebbe per alimentare discriminazioni di natura sia religiosa (in particolare con l’adozione del criterio “ore ad alta domanda”) sia sindacale (a causa dello svantaggio conseguente alla mancata presentazione in uno slot prenotato, come avvenuto a Bologna).
 
Più in generale, la priorità attribuita ad alcuni lavoratori rispetto ad altri nella scelta dell’orario determinerebbe una discriminazione per genere, esigenze di cura, handicap ed età perché basata sui criteri del “contributo”, cioè il numero di consegne effettuate negli ultimi 28 giorni, e delle “ore ad alta domanda”, determinato dal lavoro prestato all’ora di cena, nel fine settimana e nei giorni festivi.
 
2. Ma della gestione algoritmica dei rapporti di lavoro si è occupato anche il legislatore, poiché nell’art.1 bis del cd. decreto trasparenza (cioè il d.lgs. n. 152/1997, così come recentemente modificato dal d. lgs. n. 104/2022 e poi ancora dal d.l. n. 48/2023, convertito nella l. n. 85/2023, concernente l’obbligo del datore di lavoro di informare il lavoratore sulle condizioni applicabili al contratto e al rapporto di lavoro) si è previsto che il datore di lavoro o il committente pubblico e privato debba “informare il lavoratore dell’utilizzo di sistemi decisionali o di monitoraggio”, prima “automatizzati” poi, a seguito del d.l. n. 48/2023, “integralmente automatizzati”, “deputati a fornire indicazioni rilevanti ai fini dell’assunzione o del conferimento dell’incarico, della gestione o della cessazione del rapporto di lavoro, dell’assegnazione di compiti o mansioni nonché indicazioni incidenti sulla sorveglianza, la valutazione, le prestazioni e l’adempimento delle obbligazioni contrattuali dei lavoratori”. La comunicazione delle medesime informazioni e dati deve essere effettuata anche alle r.s.a ovvero alla r.s.u e, in assenza delle predette rappresentanze, alle sedi territoriali delle associazioni sindacali comparativamente più rappresentative sul piano nazionale.
 
Una norma di difficile applicazione[4], che anticipa i probabili contenuti, si auspica più circostanziati, della regolazione europea sull’intelligenza artificiale e sul lavoro tramite piattaforma.

Una norma per la cui applicazione (a cominciare dalla differenza tra sistemi automatizzati ed integralmente automatizzati che, secondo il Ministero del lavoro, si avrebbe quando la disciplina della vita lavorativa del dipendente, o suoi particolari aspetti rilevanti, siano interamente rimessi all’attività decisionale di sistemi automatizzati) è stato necessario un intervento dell’Autorità garante per la protezione dei dati personali, datato 24 gennaio 2023, che ha fatto seguito alle indicazioni interpretative fornite dal Ministro del lavoro con la circolare del 20 settembre 2022, n.19.

E che comunque ha già alimentato un contenzioso giudiziario proprio nel settore delle piattaforme del food delivery via app[5].
 
Leggendo sia il provvedimento normativo sia quelli giudiziari, ci si rende conto di quanto sia problematica questa disciplina sull’obbligo di trasparenza, che sembra chiedere assai di più al datore di lavoro ovvero al committente, che si avvalga di sistemi automatizzati, di quanto normalmente debba “svelare” il datore di lavoro sul modo di esercizio del proprio potere direttivo o di controllo sui lavoratori (e che appartiene in larga misura al suo foro interno). Ciò ovviamente avviene per il timore che la macchina sfugga al controllo dell’uomo, ma apre scenari inediti, appunto, sulle modalità di esercizio dei poteri direttivo/di controllo – poteri fondamentali nella struttura del rapporto di lavoro – nell’era dell’intelligenza artificiale.
 
3. Se il diritto nazionale è per il momento fluido, a livello europeo non va meglio. Vi è per ora solo una proposta di direttiva della Commissione europea del 9 dicembre 2021, relativa al miglioramento delle condizioni di lavoro nel lavoro mediante piattaforme digitali, che sta affrontando il suo lungo iter di approvazione[6].
 
Il Parlamento europeo ha già adottato proposte di emendamento e il Consiglio ha formulato proposte di indirizzi generali.

Espressamente intitolata al miglioramento delle condizioni di lavoro nel lavoro mediante piattaforme digitali, essa ha una parte sulla qualificazione, come subordinati o autonomi, dei rapporti di lavoro mediante piattaforme e una parte, meno discussa almeno nel nostro sistema, ma più interessante, che riguarda proprio la gestione algoritmica dei rapporti di lavoro, sia subordinati sia autonomi. Anche questi ultimi sono infatti interessati da problemi di tutela analoghi a quelli dei lavoratori subordinati: si pensi alla figura dei “digital creators” e ai problemi di trasparenza che possono insorgere in occasione di provvedimenti negativi per il lavoratore, come il ban, cioè l’esclusione dall’utilizzo delle piattaforme.
 
Quello cui si vorrebbe far fronte è la cd. opacità algoritmica nella gestione dei rapporti di lavoro. Si parte dal presupposto che sistemi decisionali o di monitoraggio automatizzati basati su algoritmi sostituiscano sempre più spesso le funzioni che i dirigenti svolgono abitualmente nelle imprese: ad es. assegnano compiti, impartiscono istruzioni, valutano il lavoro svolto, offrono incentivi o impongono sanzioni.
 
Questo è endemico, cioè, connaturato nelle ipotesi in cui il lavoro venga svolto attraverso piattaforme digitali. Ma sistemi decisionali a base algoritmica sono ampiamente diffusi in settori produttivi tradizionali, come la logistica, il commercio, la manifattura. Di ciò non tiene per la verità conto la proposta che si occupa solo dei soggetti che prestano il proprio lavoro tramite piattaforma digitale; così come essa non tiene conto delle versioni più evolute e sofisticate dei sistemi di intelligenza artificiale che definiscono autonomamente le regole del proprio funzionamento. La novità e la criticità di questi sistemi, specie dei più recenti, stanno anzitutto nella loro non trasparenza intrinseca e nell’incertezza su come essi sviluppano le proprie regole: un dato che spesso sfugge (o può sfuggire) agli stessi programmatori, tant’è che tali sistemi sono stati definiti con il termine di “black box”.
 
La soluzione proposta dalla direttiva è quella del monitoraggio e del riesame umano delle decisioni prese o sostenute da un sistema decisionale automatizzato che incida significativamente sulle condizioni dei lavoratori. A tal fine, deve essere designata una “persona di contatto” per discutere e chiarire i fatti, le circostanze e i motivi di tali decisioni.
 
I limiti della proposta europea sono essenzialmente due e li ho appena menzionati: essa si riferisce solo ai soggetti (subordinati o autonomi che siano) che prestano il proprio lavoro tramite piattaforme digitali, quando l’algoritmo può governare anche i rapporti di lavoro tradizionali; inoltre, non può molto il riesame umano nei sistemi di intelligenza artificiale che definiscono autonomamente le regole del proprio funzionamento.
 
4. A latere, vi è la proposta di regolamento europeo sull’intelligenza artificiale[7]: il Parlamento europeo ha approvato un testo contenente diversi emendamenti al progetto della Commissione (e sembrerebbe esservi l’obiettivo di raggiungere un accordo sulla stesura definitiva del regolamento nei primi mesi del 2024). Questa proposta di regolamento è entrata nei negoziati interistituzionali a lato, appunto, della proposta sulle piattaforme e verosimilmente determinerà un’osmosi tra un fascicolo e l’altro[8].
 
L’approccio regolativo della proposta di Regolamento è omnibus; non riferito cioè ai singoli e disparati settori nei quali è diffuso l’impiego dei sistemi di IA. Tuttavia, come sappiamo, vi è una distinzione tra i sistemi a basso e alto rischio – per la salute e la sicurezza e per i diritti fondamentali delle persone fisiche – e i sistemi utilizzabili in ambito lavorativo sono classificati ad alto rischio.
 
Di qui una serie di regole specifiche: trasparenza, sorveglianza umana, informazione individuale e collettiva prima di mettere in opera o utilizzare un sistema di IA; anzi, vi è un obbligo di informazione al fine di raggiungere un accordo sull’introduzione e l’uso di tali sistemi.
 
In sostanza si può ravvisare una trama normativa unitaria nei molti progetti in corso di approvazione che cerca di dare una curvatura antropocentrica alla intelligenza artificiale. Non è ancora dato sapere con quanta efficacia dati gli sviluppi imprevedibili della stessa.
 
Ma intanto occupiamoci di conoscere e governare al meglio il presente.
 

Mariella Magnani

Professoressa emerita di Diritto del lavoro dell’Università di Pavia
 
*Intervento dell’autrice al convegno “Intelligenza artificiale e professione forense: opportunità e rischi”. Pavia, 1° dicembre 2023
 
[1]A. Aloisi, V. De Stefano, Il tuo capo è un algoritmo. Contro il lavoro disumano, Laterza, 2020.

[2] Trib. Bologna, 31 dicembre 2020, in RIDL, 2021, II, 175 ss., con nota di G. Gaudio, La CGIL fa breccia nel cuore dell’algoritmo di Deliveroo: è discriminatorio; in DRI, 2021, 204 ss., con nota di M. Faioli, Discriminazioni digitali e tutela giudiziaria su iniziativa delle organizzazioni sindacali; in ADL, 2021, 771 ss., con nota di M. Biasi, L’algoritmo di Deliveroo sotto la lente del diritto antidiscriminatorio…e del relativo apparato rimediale. V. inoltre A. Perulli, La discriminazione algoritmica: brevi note introduttive a margine dell’ordinanza del Tribunale di Bologna, in LDE, 2021, 1, 1 ss.; M.V. Ballestrero, Ancora sui rider. La cecità discriminatoria della piattaforma, in Labor, 2021, 1, 104 ss.

[3] Trib. Palermo, 17 novembre 2023.

[4] Cfr., sul cd. decreto trasparenza, la sezione ricerche del n. 1/2023 di DRI ed ivi in particolare M. Faioli, Giustizia contrattuale, tecnologia avanzata e reticenza informativa del datore di lavoro. Sull’imbarazzante “truismo” del decreto trasparenza, 45 ss.; sulle modifiche apportate dal cd. decreto lavoro v. E. Dagnino, Modifiche agli obblighi informativi nel caso di utilizzo di sistemi decisionali o di monitoraggio automatizzati (art. 26, co. 2, d.l. n. 48/2023, conv. in l. 85/2023), in E.Dagnino, C. Garofalo, G. Pico, P. Rausei (a cura di), Commentario al d.l. 4 maggio 2023, n. 48 cd. “decreto lavoro”, convertito con modificazioni in l. 3 luglio 2023, n. 85, Adapt University Press, 2023.

[5] Cfr. Trib. Palermo, 31 marzo 2023, Trib. Palermo, 20 giugno 2023, Trib. Torino, 5 agosto 2023, decreti ex art. 28 St. lav., che hanno dichiarato antisindacale il comportamento delle società per non aver fornito le informazioni previste dal decreto trasparenza e, per l’effetto, hanno ordinato alla convenuta di fornire queste informazioni.

[6] Cfr. Proposta di direttiva del Parlamento europeo e del Consiglio relativa al miglioramento delle condizioni di lavoro nel lavoro mediante piattaforme digitali, 9 dicembre 2021, COM(2021) 762 final.

[7] Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’Intelligenza Artificiale (legge sull’Intelligenza Artificiale) e modifica alcuni atti dell’Unione: COM(2021) 206 del 21 aprile 2021.

[8] Cfr. A. Alaimo, Il Regolamento sull’Intelligenza Artificiale dalla proposta della Commissione al testo approvato del Parlamento. Ha ancora senso il pensiero pessimistico?, Federalismi.it, n.25/2023, 133 ss.

L’intelligenza artificiale e il diritto del lavoro*