Prospettive

Analisi, narrazioni e chiavi di lettura per decodificare il dibattito sull'innovazione e il suo impatto sulla società.

Impatto dell'AI e tutela dei lavoratori

Un'analisi dei rischi che l'intelligenza artificiale pone alla salute, alla sicurezza e alla dignità dei lavoratori, e delle condizioni tecniche, organizzative e regolatorie necessarie per governarli.

Industria 4.0

Il dibattito pubblico e accademico sull'IA nel lavoro ruota attorno a due narrative opposte e ugualmente insufficienti. La prima, dominante nel discorso manageriale e in larga parte della letteratura economica, celebra l'automazione come liberazione dal lavoro ripetitivo e degradante, promettendo ai lavoratori compiti più creativi e significativi mentre le macchine si occupano dell'esecuzione. La seconda, prevalente in certa letteratura critica, vede nell'IA principalmente un vettore di sostituzione occupazionale e controllo algoritmico, ripetendo in chiave digitale le ansie luddiste che hanno accompagnato ogni precedente rivoluzione industriale.

Entrambe condividono un presupposto che merita di essere messo in discussione: che la tecnologia abbia una traiettoria propria, indipendente dalle scelte politiche e organizzative che ne determinano l'implementazione.

L'integrazione dell'IA nell'Industry 4.0 non è un processo tecnologico neutro ma una trasformazione del rapporto tra capitale e lavoro, i cui esiti, in termini di salute, sicurezza, autonomia e dignità lavorativa, dipendono strutturalmente dalle scelte di governance che la accompagnano. In assenza di meccanismi adeguati di partecipazione dei lavoratori, di strumenti tecnici di supervisione realmente funzionanti e di quadri regolativi capaci di tenere il passo con la velocità dell'innovazione, il rischio principale non è la sostituzione totale del lavoro umano, fenomeno ancora limitato, ma la sua degradazione silenziosa: più prescrittivo, più sorvegliato, più frammentato, e paradossalmente più pericoloso proprio laddove convive con sistemi automatizzati parzialmente affidabili.

Un ecosistema tecnologico

L'intelligenza artificiale funziona all'interno di un ecosistema di tecnologie interdipendenti, big data, cloud computing, Internet delle cose, che si potenziano reciprocamente ma moltiplicano anche le vulnerabilità e i punti di frizione con il lavoro umano (Wang & Wang, 2022). Questa interdipendenza ha conseguenze dirette sia per la valutazione dei rischi che per la progettazione della governance.

La spesa globale in sistemi centrati sull'IA è destinata a superare i 300 miliardi di dollari entro il 2026, mentre il volume mondiale dei dati crescerà del 61% fino a 175 zettabyte entro il 2025 (IDC, 2022). Queste cifre descrivono una trasformazione dell'ambiente in cui i lavoratori operano: un ambiente nel quale le decisioni vengono sempre più spesso delegate a sistemi algoritmici, nel quale la distinzione tra spazio fisico e spazio digitale si assottiglia, e nel quale le conseguenze di un malfunzionamento tecnologico possono essere immediate e corporee.

Su questo punto la narrativa mainstream dell'I4.0 rivela la sua insufficienza più grave. I modelli di maturità e le roadmap tecnologiche che guidano le strategie aziendali trattano l'adozione dell'IA come un problema di ottimizzazione tecnica, nel quale le variabili rilevanti sono la velocità di implementazione, l'efficienza dei processi e il ritorno sull'investimento. I lavoratori compaiono in queste rappresentazioni prevalentemente come risorse da riqualificare o resistenze da gestire, raramente come soggetti portatori di esigenze specifiche di sicurezza, autonomia e dignità che dovrebbero orientare le scelte progettuali a monte.

Non è una cecità casuale. Riflette una scelta politica implicita: definire il successo della transizione tecnologica esclusivamente in termini di efficienza produttiva, lasciando i costi sociali e occupazionali come esternalità da affrontare a posteriori, quando non da ignorare del tutto. Le traiettorie tecnologiche non sono determinate dalla tecnica ma da scelte politiche che possono essere orientate diversamente. La questione non è se adottare l'IA, ma come, con quali priorità e con quali meccanismi di tutela per chi ne subisce le conseguenze più immediate.

La fragilità sistemica come problema strutturale, non come difetto correggibile

Al cuore della transizione verso l'I4.0 vi è un paradosso che la letteratura tecnica tende a minimizzare: i sistemi di intelligenza artificiale attualmente disponibili sono simultaneamente molto potenti e strutturalmente fragili. Non si tratta di una contraddizione transitoria destinata a essere risolta dal progresso tecnico, ma di una caratteristica intrinseca degli attuali paradigmi di machine learning che ha conseguenze dirette per la sicurezza dei lavoratori che interagiscono con questi sistemi.

Il Center for Security and Emerging Technology ha identificato tre classi fondamentali di fallimento dei sistemi IA (Arnold & Toner, 2021):

  • Robustness failures: si verificano quando il sistema riceve input che si discostano dal contesto di addestramento, anche in modo apparentemente marginale. Un sistema di visione artificiale addestrato in condizioni di illuminazione controllata può fallire in modo imprevedibile in presenza di variazioni di luce reali.
  • Specification failures: emergono quando l'obiettivo formalizzato nel sistema diverge dall'intenzione reale del progettista.
  • Assurance failures: si producono quando il comportamento del sistema non può essere adeguatamente monitorato o controllato, inclusa la ben nota difficoltà di progettare interruttori affidabili per sistemi che possono sviluppare incentivi impliciti a evitare la propria disattivazione (Orseau & Armstrong, 2016).

Questi tre tipi di fallimento non sono difetti eliminabili con maggiore cura ingegneristica: riflettono limiti epistemici fondamentali degli attuali sistemi di machine learning che nessuna quantità di testing preventivo può eliminare completamente.

Nel contesto specifico dell'I4.0, i sistemi IA non operano in ambienti controllati ma in spazi produttivi caratterizzati da variabilità continua, interazione con lavoratori umani e conseguenze fisiche immediate dei malfunzionamenti. La fragilità strutturale dei sistemi IA non è un problema astratto di ingegneria del software: è una questione concreta di sicurezza sul lavoro che richiede strumenti specifici, diversi e più stringenti di quelli attualmente in uso.

La superficie di attacco si allarga

Un aspetto della trasformazione I4.0 ancora troppo spesso trattato come problema separato dalla sicurezza occupazionale è la crescente vulnerabilità delle infrastrutture produttive agli attacchi informatici. La convergenza tra sistemi informativi (IT) e sistemi operativi (OT), la connessione tra i sistemi che gestiscono informazioni e quelli che controllano processi fisici, è presentata dalla letteratura manageriale come una delle principali opportunità dell'I4.0. Produce simultaneamente un allargamento della superficie di attacco che espone i lavoratori a rischi fisici di natura radicalmente nuova.

Un attacco riuscito ai sistemi che controllano macchinari, linee di produzione, reti elettriche non produce solo danni economici o violazioni della privacy: può causare movimenti incontrollati di macchinari, interruzioni di sistemi di sicurezza, esposizione a sostanze pericolose. La storia del worm Stuxnet, progettato per sabotare le centrifughe di arricchimento dell'uranio iraniano causando danni fisici attraverso un attacco informatico, non è un caso eccezionale legato al contesto militare, ma un prototipo di una classe crescente di minacce ora applicabili a qualsiasi contesto produttivo connesso (Dahl, 2011).

La dimensione umana di questo rischio è spesso trascurata. Una meta-analisi di diciotto studi con oltre 6.000 partecipanti ha concluso che i cyberattacchi possono causare livelli di danno psicologico paragonabili a quelli prodotti da episodi di violenza politica convenzionale, con conseguenze che includono difficoltà del sonno, stati d'ansia prolungati e traumi (Shandler et al., 2023). I settori manifatturiero e sanitario, tra i più colpiti da attacchi ransomware nel 2023 (ENISA, 2023), sono anche quelli nei quali un'interruzione dei sistemi ha le conseguenze più immediate sulla sicurezza fisica dei lavoratori.

L'illusione del controllo

Uno degli assi portanti del discorso regolatorio sull'IA, dalle linee guida etiche della Commissione Europea alle disposizioni dell'AI Act, è il principio della supervisione umana: i rischi dei sistemi automatizzati possono essere mitigati garantendo che un essere umano rimanga nella catena di controllo, capace di comprendere, monitorare e intervenire sulle decisioni algoritmiche. Questo principio è teoricamente corretto e politicamente necessario. La distanza tra la sua enunciazione e la sua realizzazione pratica è però molto più grande di quanto il discorso regolatorio ammetta.

Il problema ha radici tecniche profonde. La crescente complessità dei sistemi di deep learning produce un trade-off strutturale tra accuratezza e interpretabilità: i modelli più performanti sono anche quelli più opachi, i cui processi decisionali non possono essere tradotti in spiegazioni comprensibili per operatori umani non specializzati (Barredo Arrieta et al., 2019). I sistemi IA operano spesso in millisecondi, su scale di complessità che rendono impossibile una supervisione significativa in tempo reale.

In molti contesti operativi, i lavoratori incaricati di supervisionare sistemi automatizzati si trovano in una condizione paradossale: formalmente responsabili del controllo di processi che non possono realmente comprendere né influenzare, esposti alle conseguenze dei malfunzionamenti senza disporre degli strumenti cognitivi o organizzativi per prevenirli.

Questo fenomeno ha implicazioni dirette per la salute psicosociale dei lavoratori. Il modello Job Demand-Control di Karasek (1979) ha dimostrato che la combinazione di elevate richieste lavorative e bassa autonomia decisionale è un predittore robusto di stress cronico, patologie cardiovascolari e deterioramento della salute mentale. L'implementazione di sistemi IA tende strutturalmente a spostare questo equilibrio nella direzione sfavorevole: aumenta le richieste cognitive mentre riduce l'autonomia decisionale trasferendo le scelte strategiche all'algoritmo.

Il lavoro invisibile

La narrativa dominante sull'automazione promette ai lavoratori dei paesi avanzati la liberazione dai compiti ripetitivi e degradanti, suggerendo che l'IA si farà carico dell'esecuzione meccanica mentre gli esseri umani si concentreranno su attività creative e relazionali di maggiore valore. Questa promessa merita di essere esaminata criticamente, non solo perché le evidenze disponibili la smentiscono parzialmente, ma perché nasconde una redistribuzione globale del lavoro degradato che solleva questioni etiche di notevole gravità.

I sistemi di machine learning dipendono strutturalmente da enormi quantità di dati etichettati, verificati e curati da lavoratori umani. Questo lavoro di annotazione, identificare oggetti nelle immagini, classificare testi, valutare la qualità delle risposte dei modelli, è per sua natura ripetitivo, cognitivamente poco stimolante e spesso psicologicamente disturbante. Un'inchiesta di Time ha rivelato che lavoratori kenioti pagati tra 1,32 e 2 dollari l'ora erano responsabili del filtraggio dei contenuti tossici nei dati di addestramento di ChatGPT, con esposizione quotidiana a materiali che includevano descrizioni di abusi sessuali su minori, violenza estrema e autolesionismo (Perrigo, 2023).

Non è un caso isolato. Il modello del crowdwork, la frammentazione di grandi volumi di lavoro in micro-task distribuiti a lavoratori globali attraverso piattaforme digitali come Amazon Mechanical Turk, è diventato l'infrastruttura invisibile dello sviluppo dell'IA, un sistema nel quale i guadagni di efficienza del Nord globale sono costruiti su condizioni lavorative degradate nel Sud globale (Bérastégui & Garben, 2021).

Un sistema IA non può essere considerato eticamente responsabile se la sua produzione dipende da catene globali del valore che sistematicamente violano i diritti fondamentali dei lavoratori coinvolti. Una governance davvero responsabile dell'IA non può limitarsi a regolare l'uso dei sistemi nei contesti di deployment nei paesi avanzati: deve estendersi alle condizioni di produzione lungo l'intera catena del valore.

Verso una governance dell'IA centrata sul lavoro

I rischi che l'IA pone alla salute, alla sicurezza e alla dignità dei lavoratori non sono esternalità inevitabili di un progresso tecnico altrimenti benefico, ma il prodotto di scelte specifiche di design, organizzazione e regolazione che potrebbero essere fatte diversamente. Una governance dell'IA centrata sul lavoro richiede interventi su tre livelli distinti ma interconnessi.

  • Sul piano tecnico, è necessario invertire la gerarchia implicita nelle scelte di design dei sistemi IA, privilegiando architetture che amplificano le capacità umane piuttosto che sostituirle, progettate fin dall'inizio per essere comprensibili e controllabili. Questo implica accettare trade-off tra performance e interpretabilità che il mercato, lasciato a se stesso, non ha incentivi a fare.
  • Sul piano organizzativo, i risultati migliori in termini di benessere e sicurezza si ottengono quando i lavoratori vengono coinvolti non solo nell'uso ma nella progettazione dei sistemi IA, e quando dispongono di sufficiente autonomia per adattare le modalità di interazione con questi sistemi alle proprie esigenze specifiche (Perez et al., 2022).
  • Sul piano regolatorio, l'AI Act europeo rappresenta un primo passo significativo ma insufficiente. La proposta di Cefaliello e Kullmann (2022), qualsiasi sistema IA prevedibilmente utilizzato in un contesto lavorativo dovrebbe essere classificato come ad alto rischio indipendentemente dall'intenzione dichiarata del produttore, merita di essere adottata come principio di precauzione esteso.

La transizione verso l'Industry 4.0 è già in corso, e la questione non è se i sistemi di intelligenza artificiale trasformeranno il lavoro, ma come questa trasformazione avverrà e a vantaggio di chi. I dati disponibili disegnano un quadro nel quale i costi della transizione sono distribuiti in modo profondamente iniquo: concentrati su chi lavora, dispersi tra chi produce e adotta le tecnologie.

Questa iniquità non è il prodotto inevitabile del progresso tecnico. È il risultato di un assetto di governance nel quale la velocità dell'innovazione supera sistematicamente la capacità regolatoria, nel quale i costi della sicurezza vengono esternalizzati sui lavoratori e sulla collettività, e nel quale la voce di chi subisce più direttamente le conseguenze delle scelte tecnologiche è la meno ascoltata nei processi di design e adozione. Modificare questo assetto richiede interventi simultanei sul piano tecnico, organizzativo e politico, sostenuti da una concezione della governance dell'IA che metta la dignità e la sicurezza del lavoro umano al centro, non in appendice, delle proprie priorità.

Il paradosso più profondo dell'intelligenza artificiale contemporanea è che la sua straordinaria capacità di elaborare informazioni e ottimizzare processi dipende, in ultima istanza, da una quantità enorme di lavoro umano, spesso invisibile, spesso precario, spesso svolto in condizioni che le società del Nord globale non tollererebbero nei propri contesti. Rendere visibile questa dipendenza, e trarne le conseguenze normative appropriate, è la sfida più urgente che la governance dell'IA deve affrontare.

Riferimenti

  • Adadi, A., & Berrada, M. (2018). Peeking inside the black-box: a survey on explainable artificial intelligence (XAI). IEEE Access, 6, 52138–52160.
  • Arnold, Z., & Toner, H. (2021). AI accidents: an emerging threat. Center for Security and Emerging Technology.
  • Barredo Arrieta, A., et al. (2019). Explainable artificial intelligence (XAI): concepts, taxonomies, opportunities and challenges toward responsible AI. Information Fusion, 58.
  • Bérastégui, P., & Garben, S. (2021). The platform economy at the forefront of a changing world of work. In J. Drahokoupil & K. Vandaele (Eds.), A modern guide to labour and the platform economy. Edward Elgar Publishing.
  • Cefaliello, A., & Kullmann, M. (2022). Offering false security: how the draft artificial intelligence act undermines fundamental workers rights. European Labour Law Journal, 13(4), 542–562.
  • Dahl, F. (2011). Stuxnet could harm nuclear safety: U.N. atom chief. Reuters.
  • ENISA. (2023). ENISA threat landscape 2023: July 2022 to June 2023. European Union Agency for Cybersecurity.
  • Findlay, P., et al. (2017). Employer choice and job quality. Work and Occupations, 44(1), 113–136.
  • IDC. (2022). Worldwide spending on AI-centric systems will pass $300 billion by 2026. International Data Corporation.
  • Karasek, R. (1979). Job demands, job decision latitude and mental strain. Administrative Science Quarterly, 24(2), 285–308.
  • Le Ludec, C., & Cornet, M. (2023). Enquête: derrière l'IA, les travailleurs précaires des pays du Sud. The Conversation.
  • Orseau, L., & Armstrong, S. (2016). Safely interruptible agents. Proceedings of UAI'16, 557–566.
  • Perez, F., Conway, N., & Roques, O. (2022). The autonomy tussle: AI technology and employee job crafting responses. Relations industrielles / Industrial Relations, 77(3).
  • Perrigo, B. (2023). OpenAI used Kenyan workers on less than $2 per hour to make ChatGPT less toxic. Time.
  • Shandler, R., Gross, M. L., & Canetti, D. (2023). Cyberattacks, psychological distress, and military escalation. Journal of Global Security Studies, 8(1).
  • Wang, N., & Wang, K. (2022). Internet financial risk management in the context of big data and artificial intelligence. Mathematical Problems in Engineering, 2022.

Raffaele Maurici
Innovation Agency