L’intelligenza artificiale nelle telecomunicazioni tra regolazione europea e dialogo sociale
| di Diletta Porcheddu
Con una dichiarazione congiunta diffusa il 16 dicembre 2025, le parti sociali europee del settore delle telecomunicazioni – UNI Europa ICTS e Connect Europe – hanno richiamato l’attenzione sulla necessità di garantire un’adozione dell’intelligenza artificiale che sia non solo tecnologicamente avanzata, ma anche etica, equa e socialmente sostenibile. In particolare, la dichiarazione richiama l’attenzione sui potenziali impatti dell’IA su salute e sicurezza, uguaglianza e non discriminazione, tutela della dignità e dei diritti fondamentali dei lavoratori, collocando l’adozione delle nuove tecnologie all’interno di una più ampia riflessione sulle condizioni di lavoro. Il joint statement, firmato lo scorso 13 novembre, si colloca nel solco del dialogo sociale europeo di settore e si inserisce in una fase particolarmente significativa, segnata dall’entrata in vigore (e già i primi emendamenti) dell’AI Act (Reg. UE 2024/1689) e dall’accelerazione dei processi di digitalizzazione nelle imprese delle comunicazioni.
Il documento non nasce in un vuoto regolativo o negoziale. Già nel 2020 le parti sociali europee delle telecomunicazioni avevano adottato una prima dichiarazione congiunta sull’intelligenza artificiale, nella quale venivano fissati alcuni principi chiave (dall’approccio human-in-command alla centralità del dialogo sociale, fino all’attenzione per le competenze e la tutela dei diritti fondamentali) a testimonianza di un settore che da tempo si confronta in modo strutturato con le implicazioni della trasformazione digitale. La dichiarazione del 2025 si pone dunque in continuità con quel percorso, aggiornandone tuttavia contenuti e priorità alla luce della maturazione tecnologica dell’IA e del rafforzamento del quadro normativo europeo.
Anche in questa occasione, il riconoscimento del potenziale positivo dell’intelligenza artificiale in termini di innovazione, produttività e competitività del settore è accompagnato da una presa di distanza rispetto a una narrazione esclusivamente incentrata sugli investimenti e sui guadagni in termini di efficienza. Secondo i firmatari, un approccio di questo tipo risulta insufficiente a garantire una diffusione dell’IA che sia realmente sostenibile e socialmente accettabile. L’adozione delle nuove tecnologie viene così ricondotta entro una cornice più ampia, che include il rispetto dei diritti fondamentali, delle norme europee in materia di protezione dei dati e dei principi etici che devono presidiare l’uso di sistemi automatizzati nei contesti di lavoro, rinvenibili all’interno di legislazioni fondamentali dell’UE come il GDPR, la Platform Work Directive, le Direttive in materia di salute e sicurezza sul lavoro e non solo. Tale cornice, peraltro, potrebbe essere potenzialmente ampliata nel prossimo futuro, vista la recente iniziativa del Parlamento Europeo volta a regolare ulteriormente l’uso dei sistemi algoritmici (IA compresa) all’interno dei luoghi di lavoro. Tale iniziativa, identificando significativi gap nella regolazione eurounitaria del tema, richiede infatti alla Commissione Europea di legiferare sul punto.
In questo quadro, particolare rilievo assume il richiamo al principio dello human-in-command, già presente nella dichiarazione del 2020 ma ora rafforzato e contestualizzato rispetto agli sviluppi più recenti dell’intelligenza artificiale, inclusi i sistemi decisionali avanzati e le applicazioni generative. Tale approccio, del resto, non è nuovo nel panorama del dialogo sociale europeo, essendo già stato adottato anche dalle parti sociali intersettoriali nel Framework Agreement on Digitalisation sempre del 2020. L’esigenza di mantenere un controllo umano effettivo sui sistemi di IA viene ribadita soprattutto laddove questi incidano su decisioni rilevanti per i lavoratori. Il riferimento non è soltanto teorico: la dichiarazione esplicita la necessità di evitare usi distorsivi dell’IA, forme di discriminazione algoritmica e pratiche di sorveglianza eccessiva, ribadendo che l’introduzione di nuove tecnologie nei luoghi di lavoro deve essere accompagnata da un rafforzamento del dialogo sociale e della contrattazione collettiva.
Il testo dedica ampio spazio anche alle questioni legate alla gestione dei dati e alla trasparenza dei processi decisionali automatizzati, temi già presenti nel dibattito settoriale ma oggi riletti alla luce delle nuove responsabilità introdotte dall’AI Act. La costruzione di un vero e proprio “ecosistema di fiducia” viene indicata come condizione essenziale per l’adozione dell’IA, richiamando espressamente il rispetto del GDPR e delle tutele previste dalla normativa europea. In particolare, l’uso dell’intelligenza artificiale nei processi di gestione delle risorse umane è individuato come un ambito sensibile, nel quale le decisioni algoritmiche possono incidere direttamente sulle traiettorie professionali dei lavoratori, con effetti potenzialmente rilevanti anche in termini di tutela della salute, di intensificazione dei ritmi di lavoro e di rischio discriminatorio e, per questo, richiedono meccanismi chiari di responsabilità, possibilità di comprensione delle logiche decisionali e strumenti di correzione degli effetti indesiderati (per un approfondimento sul tema dei sistemi di supporto ai processi decisionali basati sull’intelligenza artificiale e il rischio di bias si veda S. Prosdocimi in Bollettino ADAPT, 3 novembre 2025, no. 38).
Accanto ai profili di tutela, la dichiarazione pone con forza il tema delle competenze, riconoscendo che l’intelligenza artificiale non si limita ad automatizzare singole mansioni, ma contribuisce a trasformare l’organizzazione del lavoro nel suo complesso, ridefinendo ruoli, flussi decisionali e modelli di coordinamento. Anche su questo versante si registra una linea di continuità con il documento del 2020, ma con un accento più marcato sulla necessità di politiche strutturate di reskilling e upskilling e su una responsabilità condivisa tra imprese, lavoratori e istituzioni pubbliche. Il dialogo sociale viene indicato, ancora una volta, come lo strumento privilegiato per governare le transizioni occupazionali e prevenire fenomeni di esclusione.
Pur avendo natura programmatica e non vincolante, il joint statement del 2025 sembra dunque andare oltre una mera enunciazione di principi. Il riferimento costante alla contrattazione collettiva, ai diversi livelli del dialogo sociale e alla necessità di regole condivise lascia intravedere la possibilità che questa dichiarazione possa costituire un ulteriore passo verso una progressiva trasposizione dei suoi contenuti in strumenti negoziali più cogenti. Non è un caso che proprio nel settore delle telecomunicazioni, anche a livello nazionale, si stiano moltiplicando esperienze contrattuali che intervengono a disciplinare l’uso dell’intelligenza artificiale e dei sistemi algoritmici.
In questa prospettiva, la dichiarazione del 16 dicembre 2025 può essere letta come la conferma di un settore che da tempo affronta in modo strutturato il confronto sull’intelligenza artificiale e che tenta ora di consolidare questo patrimonio di principi all’interno di una cornice europea comune. Resta affidato alla capacità delle parti sociali, a livello nazionale e aziendale, il compito di tradurre tali indicazioni in previsioni contrattuali concrete, capaci di incidere effettivamente sulle pratiche organizzative e sull’esperienza lavorativa nei contesti ad alta intensità tecnologica.
Direttrice Fondazione ADAPT
ADAPT Senior Research Fellow
Condividi su:
