Moderatori di contenuti atroci sui social e danni mentali che subiscono: in Spagna è infortunio sul lavoro

ADAPT – Scuola di alta formazione sulle relazioni industriali e di lavoro

Per iscriverti al Bollettino ADAPT clicca qui

Per entrare nella Scuola di ADAPT e nel progetto Fabbrica dei talenti scrivi a: selezione@adapt.it

Bollettino ADAPT 22 gennaio 2024, n. 3
 
I disturbi mentali dei lavoratori adibiti a filtrare i contenuti più atroci della rete sono da considerarsi a tutti gli effetti infortunio sul lavoro, e non malattia comune. È quanto ha riconosciuto, con una sentenza del 12 gennaio scorso, un tribunale spagnolo (il Juzgado de lo Social 28 de Barcelona), che per la prima volta ha dichiarato responsabile l’azienda di moderazione dei contenuti per i danni piscologici causati ad un lavoratore le cui mansioni, per anni, erano consistite nel visionare video violenti di decapitazioni, suicidi, automutilazioni, torture.
 
Nello specifico, il caso è quello di un lavoratore che dal 2018 al 2020 ha prestato la propria attività per CCC Barcelona Digital Services SL, subappaltatrice del colosso tecnologico Meta proprietario di Facebook, Instagram e Whatsapp, incaricata di bloccare i contenuti violenti e inappropriati per evitare che vengano pubblicati nelle reti sociali. A parere dell’organo giudicante, non v’è dubbio che i gravi problemi piscologici di cui il lavoratore soffre da oltre cinque anni, siano da attribuirsi ai contenuti video cui lo stesso è stato sottoposto durante quell’arco di tempo, nonostante l’impresa abbia tentato di attribuirli alla natura del lavoratore sulla base del fatto che in adolescenza era stato in cura dallo psicologo.
 
Sul fatto che i gravi disturbi mentali fossero legati all’attività lavorativa si era dimostrato d’accordo anche l’Instituto Nacional de la Seguridad Social (INSS), ed è proprio contro la decisione di tale istituto che la CCC Barcelona Digital Services SL aveva presentato domanda di revoca nel 2022. Ma l’organo giudicante ha dato ragione, ancora una volta, al lavoratore. La sentenza riporta, infatti, che i moderatori di contenuti sono sottoposti ad una pressione enorme a causa del carico e della tipologia di lavoro che sono chiamati a svolgere, e che l’impresa, di contro, non adotta misure adeguate per prevenire i danni psicologici e i disturbi da stress post-traumatico che lo svolgimento di tali mansioni finisce per provocare.
 
Il problema delle profonde, per quanto talvolta invisibili, ferite che la natura di questo lavoro produce in chi lo presta, è stato portato all’attenzione mediatica a seguito di una accurata inchiesta realizzata dalla testata giornalistica spagnola La Vanguardia e pubblicata nell’ottobre del 2023. Stando ai dati che ne emergono, dei 2.030 lavoratori di CCC Barcelona Digital Services, almeno il 20%, attorno alle 400 persone, è in malattia a causa dei traumi psicologici derivanti dalla visione di contenuti brutali cui ogni giorno sono sottoposti: immagini e video, talvolta anche in diretta, di omicidi, smembramenti, stupri, suicidi.
 
Alcuni tra i lavoratori intervistati hanno dichiarato che durante una giornata di lavoro possono arrivare a visionare circa 450 tra immagini e video dai contenuti estremi. Peraltro, come anche si legge nella sentenza in commento «ciascuna scena doveva essere visionata più volte nella sua interezza, per essere sicuri che la politica applicata al contenuto grafico in questione fosse quella corretta». Se le decisioni del moderatore fossero risultate in contrasto con quelle degli altri moderatori o del superiore per una percentuale superiore al 2%, il rischio era quello del licenziamento, il che andava ad aumentare ulteriormente la pressione psicologica.
 
Il quadro clinico dei lavoratori intervistati rivela stress postraumatico, ansia, insonnia, depressione e financo tentato suicidio. Alcuni di loro ancora lavorano per l’azienda, altri sono in malattia, altri si sono dimessi. Dalle loro testimonianze è emerso quanto di più disumano si possa immaginare: il racconto indelebile, nella mente di un lavoratore, del video di un uomo alcolizzato che uccideva il figlio neonato di fronte alla telecamera, accoltellandolo al petto, estraendo il cuore e mordendolo; un altro raccontava di aver accettato il lavoro in quanto «avrebbe voluto dire mettere un piede in Facebook», ben pagato e senza nessuna formazione richiesta, senza però immaginare a cosa sarebbe andato incontro; una lavoratrice racconta che da ragazza aveva subito episodi di bullismo, e dopo essere stata assegnata alla visione di video e immagini aventi prettamente contenuto suicida, è ricaduta nella depressione arrivando a tentare il suicidio ben due volte.
 
L’inchiesta ha avuto grande seguito, anche perché, per le condizioni imposte dall’azienda, i lavoratori sono soggetti a clausole di estrema riservatezza, tanto che nemmeno i loro partners potevano sapere che l’azienda per cui lavoravano era subappaltatrice di Meta. L’ingresso in azienda prevedeva un doppio passaggio attraverso il metaldetector e il rilevatore di impronte digitali, giacché era assolutamente proibito entrare nella sala di visione con il cellulare e, il mancato rispetto della regola avrebbe comportato la detrazione di due settimane di stipendio.
 
Dalle interviste è altresì emerso che l’assistenza psicologica che l’impresa offre, è del tutto insufficiente in relazione alla violenza dei contenuti che sono chiamati a visionare. Un intervistato riporta che sono previsti 40 minuti a settimana di quello che viene definito “wellness”, una sorta di dialogo con uno psicologo, il cui consiglio a fronte della manifestazione di un disagio è però sempre e solo quello di cercare un nuovo lavoro.
 
Eppure, la stessa Meta riconosce che il lavoro svolto da queste persone è essenziale al punto da definirli “eroi”. I dati forniti da Meta rivelano che soltanto nel secondo trimestre del 2023 sono stati ritirati da Facebook 7,2 milioni di contenuti riguardanti abusi sessuali nei confronti di minori, altri 6,4 milioni relativi a suicidi ed atti di autolesionismo, 17,5 milioni aventi ad oggetto discorsi d’odio di varia natura.
 
Il caso della sentenza spagnola rappresenta, dunque, un importante precedente nelle rivendicazioni dei moderatori di contenuti di tutto il mondo. Da diversi anni i lavoratori subappaltati da Facebook lamentano le deplorevoli condizioni di lavoro a cui sono esposti. Il fatto di aver visto riconosciuti per la prima volta come infortuni sul lavoro i danni psicologici provocati a questi lavoratori, ha avuto e continuerà ad avere eco in Spagna e anche ben oltre, se si considera che questo lavoro di filtro viene svolto per Meta pressoché in ogni parte del mondo.
 
Una breccia, con questa sentenza è stata aperta, e una dozzina di altri lavoratori, rappresentati dallo stesso avvocato Francesc Feliu, sono già pronti ad affrontare la stessa battaglia: è auspicabile che, cavalcando la stessa onda, molti altri moderatori di contenuti rimasti lesi nel proprio animo, riescano, grazie a questo primo riconoscimento, a ricevere la giusta riparazione per i danni mentali e psicologici subiti a causa del proprio lavoro.
 
«Meta ha il dovere di garantire un’assistenza sanitaria mentale reale e costante e luoghi di lavoro sicuri alle decine di migliaia di lavoratori che svolgono questo lavoro in tutto il mondo», ha affermato Martha Dark, direttrice dell’organizzazione per la difesa dei diritti tecnologici Foxglove, rimarcando la necessità che i governi adottino normative più efficaci allo scopo di garantire che i social network siano spazi sicuri, tanto per gli utenti quanto per i lavoratori.
 

Lavinia Serrani

Ricercatrice ADAPT

Responsabile Area Ispanofona

@LaviniaSerrani

Moderatori di contenuti atroci sui social e danni mentali che subiscono: in Spagna è infortunio sul lavoro