20 ottobre 2016

Big data e lavoro: le sfide della workforce analytics

Emanuele Dagnino


Durante una recente relazione alla conferenza “Building European Data Economy”, Günther Oettinger, Commissario responsabile per l’economia e la società digitali, ha ribadito come i data siano diventati «un bene di grande valore socio-economico», aggiungendo poi che è necessario «costruire un ecosistema innovation-friendly in cui le aziende private trovino i giusti incentivi per investire nella data economy». È d’altronde dalla Comunicazione della Commissione COM(2014)442 (dal titolo Towards a thriving data-driven economy) del 2014, che a livello di Unione si è riconosciuta la centralità dei dati per le prospettive di sviluppo economico.

 

Come sottolinea la Commissione «i dati sono il fulcro dell’economia e della società della conoscenza del futuro», dal momento che la produzione di nuova conoscenza passa proprio dall’analisi e dallo studio dei dati finalizzata all’estrazione da essi di informazioni rilevanti. Mai come oggi c’è stata una così ingente disponibilità di dati: essi sono prodotti in tutti i contesti sociali e produttivi, in una mole tale da rendere inadeguate le tradizionali modalità di analisi. È qui che entra in gioco il fenomeno dei big data: le nuove tecnologie consentono di trattare questa ingente mole di dati simultaneamente e di acquisirne informazioni di grande importanza, che istituzioni ed aziende possono sfruttare nei loro processi organizzativi e decisionali (per una breve analisi di rischi e opportunità si veda G. Machì, Big data: possibilità e pericoli derivanti dall’introduzione in azienda).

 

Non stupisce, quindi, che molte recenti analisi abbiano eletto i big data a fattore qualificante della trasformazione digitale del lavoro, insieme alla diffusione di internet e degli smartphone (C. DEGRYSE, Digitalisation of the economy and its impact on the labour markets, ETUI, Working Paper 2016.02) e che le aziende stiano destinando risorse sempre maggiori alla data analytics, al fine di utilizzare le informazioni derivanti per prendere decisioni nei diversi ambiti di operatività, dalle politiche di business agli aspetti organizzativi e di gestione del personale.

 

Quest’ultima pratica, ovvero quella dell’utilizzo dei big data a fini di gestione delle risorse umane, viene definito, tra gli altri modi, come workforce o people analytics. L’idea è quella secondo cui l’analisi dei dati permetta non solo di conoscere al meglio il funzionamento dei processi produttivi e le performance dei lavoratori, ma anche di prevedere le potenzialità di un candidato o la possibile resa di un lavoratore all’interno di un determinato gruppo di lavoro o ancora i comportamenti futuri (es. possibilità di successo, assenteismo, tasso di retention). Dal momento che si tratta di una pratica in via di diffusione e che sempre più decisioni, tanto in fase pre-assuntiva quanto durante il rapporto, si baseranno su informazioni ottenute tramite l’analisi di big data, si ritiene importante cominciare ad interrogarsi su quali siano le caratteristiche di queste attività e su come esse impattino sui lavoratori e sulla normativa di diritto del lavoro e di tutela della privacy.

 

È questa una esigenza che è già stata avvertita nel contesto statunitense, dove la people analytics ha avuto una diffusione precedente, come prova un primo interesse da parte della dottrina giuslavoristica (tra i recenti interventi si segnala, M. T. Bodieetal., The Law and Policy of People Analytics, University of Colorado Law Review, forthcoming), nonché da parte di alcune istituzioni.
Da segnalare, a questo proposito, un recente convegno tenutosi presso la U. S. Equal Employment Opportunities Commission, dal titolo “Big Data in the Workplace: Examining Implications for Equal Employment Opportunity Law” (di cui è possibile consultare il resoconto per la stampa, oltre che le testimonianze scritte dei partecipanti).

 

Quello che emerge da queste ed altre analisi sulla tematica è un quadro in chiaroscuro, dove all’analytics vengono riconosciute potenzialità non solo rispetto agli interessi delle aziende, ma anche rispetto a quelli dei lavoratori, rilevandosi al contempo i rischi insiti in questa modalità di management.

 

Si sostiene, da un lato, che le analisi dei dati e la predictive analytics siano in grado di ridurre le problematiche connesse alla valutazione umana, che può essere influenzata da pregiudizi, consci o inconsci, promuovendo così maggiore oggettività nelle decisioni.

 

Dall’altro lato, oltre a sollevarsi la questione, abbastanza ovvia date le modalità di queste operazioni, relativa al rispetto della privacy dei lavoratori o potenziali lavoratori (tanto con riferimento alla consapevolezza rispetto al trattamento quanto con riferimento alla natura dei dati raccolti e alla loro qualità), è necessario sottolineare come l’effetto antidiscriminatorio non debba essere sovrastimato.

 

Si rileva, infatti, come un trattamento di dati così corposo possa essere volontariamente sfruttato per ottenere informazioni vietate al fine di orientare le proprie scelte e grazie alle potenzialità di analisi delle nuove tecnologie, potrebbe ottenere tale esito trattando dati che apparentemente non hanno correlazione con l’informazione vietata. Ma vi è di più: gli esiti della people analytics dipendono sostanzialmente da come il procedimento di analisi è impostato in tutte le sue diverse fasi, dalla selezione e raccolta dei dati agli output dell’analisi. In base alle modalità di costruzione del procedimento anche l’azienda che non abbia finalità discriminatorie, potrebbe inconsapevolmente introdurre bias nel processo di trattamento, che con un effetto a catena si riproporrebbero negli esiti, con effetti discriminatori. Per esempio, se si dovesse costruire un modello di dipendente, così da poter selezionare il miglior candidato per una posizione, basandosi sui dati di altri lavoratori che abbiano precedentemente coperto la stessa posizione, tale modello potrebbe intrinsecamente riprodurre caratteristiche che non sono relative alle attitudini professionali, ma più legate alla composizione del gruppo di riferimento, laddove vi sia un predominio – per esempio di un genere (uomini piuttosto che donne) – nel campione selezionato.

 

Si segnala, ancora, la questione dell’affidabilità dell’analisi predittiva, dal momento che essa sembra tenere conto, in molti casi, più che altro di correlazioni, che non spiegano di per sé il rilievo del dato rispetto al modello costruito (si pensi all’analisi dei like su un social network).

 

Di fronte a questo quadro, si ritiene quindi necessario approfondire quali siano i risvolti di tale pratica e quando essa possa definirsi legittima nel contesto interno, che pure presenta una disciplina lavoristica e di tutela della riservatezza più corposa rispetto a quella statunitense.

 

Risulta, allora fondamentale domandarsi, quando risulti applicabile la normativa sulla privacy e in che modalità, tenendo nella dovuta considerazione il nuovo Regolamento Europeo in materia di protezione; quando possa entrare in gioco l’art. 4 dello Statuto dei lavoratori, così come recentemente novellato e quando il trattamento possa configurarsi come una indagine vietata ai sensi dell’art. 8 della stessa legge; e ancora quali siano le tutele offerte dalla disciplina antidiscriminatoria interna rispetto a tali pratiche. E questo limitandosi agli impatti sul piano individuale, ma il discorso potrebbe essere esteso alle decisioni che riguardano gruppi di lavoro o in generale l’organizzazione.

 

Ma oltre a verificare lo status quo, risulterà imprescindibile interrogarsi anche sulla capacità della tradizionale strumentazione giuslavoristica di rispondere a questa ennesima espressione dello sviluppo tecnologico. Come intervenire su una discriminazione operata da un algoritmo? Chi ne è responsabile?

 

Come ha brillantemente sottolineato Lawrence Lessig (L. Lessig, Code is Law, Basic Book, 2006), il diritto deve confrontarsi con il fatto che nel mondo cibernetico «code is law» (il codice è la legge) e che le strutture hardware e software che costituiscono il mondo cibernetico, ne dettano anche le regole di funzionamento.

 

Ci sembra questa essere una indicazione importante: il concetto di data protection by design, fatto proprio dal nuovo Regolamento Europeo, recepisce questa indicazione, spostando l’attenzione dal momento della implementazione del processo a quello del design.

 

Come questo rilievo possa essere colto negli altri ambiti di interesse dei big data è ancora da definire: il diritto del lavoro, al pari della contrattazione collettiva, si sono dotati di numerosi strumenti nella propria storia e dovranno essere in grado di rispondere alle nuove sfide, adattandosi o rinnovandosi.

 

Emanuele Dagnino

Scuola di dottorato in Formazione della persona e mercato del lavoro

Università degli Studi di Bergamo

@EmanueleDagnino

 

Scarica il PDF pdf_icon




PinIt