PERCORSO · CONCETTI CHIAVE, CONFINI MOBILI

Automazione
Il processo che si presenta come progresso

L'automazione sembra il passo naturale dopo la meccanizzazione: prima le macchine hanno amplificato la forza fisica degli esseri umani, poi hanno cominciato a sostituire anche il controllo. Ma "automazione" è un termine che copre trasformazioni molto diverse, dalla valvola che regola la pressione di una caldaia all'algoritmo che decide i prezzi di milioni di prodotti in tempo reale. Capire dove risiede il controllo in ciascun caso, e chi può riprenderselo, è il lavoro di questo modulo.

PRIMA DI INIZIARE

  • Nelle prime sezioni analizzerai perché il termine "automazione" raggruppa trasformazioni molto diverse e imparerai a scomporlo in tre dimensioni indipendenti. Poi applicherai questo strumento a un testo divulgativo realistico.
  • Tempo stimato: 35–50 minuti in una sola sessione.

Un termine vecchio con un problema nuovo

Nel linguaggio corrente, il termine automazione viene applicato a processi molto diversi: il termostato che accende il riscaldamento quando la temperatura scende sotto una soglia, la linea di produzione che assembla veicoli senza intervento umano diretto, il sistema che smista le email in cartelle, l'algoritmo che aggiusta i prezzi dei biglietti aerei centinaia di volte al giorno, il programma che approva o rifiuta automaticamente le richieste di rimborso spese, il software che pubblica contenuti sui canali social di un'azienda all'orario prestabilito. In tutti questi casi si parla di "automazione", ma la struttura del controllo, la possibilità di intervento umano e le conseguenze di un malfunzionamento sono radicalmente diverse.

Il termine ha origini nell'industria manifatturiera del Novecento: fu usato sistematicamente per la prima volta negli anni Quaranta dagli ingegneri della Ford per descrivere i sistemi di trasferimento automatico dei pezzi tra le macchine utensili, un passo oltre la catena di montaggio taylorista, in cui gli operai non dovevano più spostare fisicamente i semilavorati. Da quel momento in poi, "automazione" ha attraversato ogni settore produttivo e poi ogni ambito della vita sociale, dal magazzino all'ufficio, dalla fabbrica all'ospedale, dalla banca alla scuola, perdendo progressivamente il significato tecnico preciso che aveva in origine e diventando un termine generico per indicare qualsiasi processo in cui una macchina svolge compiti che prima richiedevano intervento umano.

Il problema è che questa genericità nasconde una distinzione fondamentale: quella tra meccanizzazione e automazione in senso stretto. La meccanizzazione amplifica le capacità fisiche degli esseri umani, un trapano fa ciò che farebbe un operaio con un punteruolo, solo più velocemente e con meno sforzo, ma il controllo del processo rimane all'operatore umano: è lui a decidere quando avviare la macchina, quanto a lungo tenerla in funzione, quando fermarla. L'automazione in senso stretto sposta quel controllo: è la macchina stessa a decidere quando avviarsi, quanto durare, quando fermarsi, sulla base di condizioni che percepisce nell'ambiente. Questa distinzione, dove risiede il controllo del processo, è il nucleo definitorio intorno a cui ruota questo modulo.

La parola "automazione" non è neutrale. Evocare un processo che si governa da solo suggerisce efficienza, neutralità e inevitabilità tecnica. Ma ogni sistema automatizzato ha incorporato, nel momento in cui è stato progettato, delle scelte su quali condizioni devono verificarsi perché il processo si avvii o si fermi, chi può modificare quelle condizioni e chi non può, quali errori il sistema considera accettabili e quali no. Queste scelte non spariscono nell'automazione: vengono trasferite dal momento dell'esecuzione al momento della progettazione, rendendole meno visibili e più difficili da contestare.

Il problema definitorio ha conseguenze pratiche immediate. Classificare un processo come "automatizzato" o come "assistito da strumenti" determina chi è responsabile quando qualcosa va storto, quali lavoratori sono considerati sostituibili, quale tipo di supervisione è ritenuta necessaria, e, soprattutto nei dibattiti di politica pubblica, quali effetti sociali si attribuiscono alla tecnologia e quali invece alle scelte organizzative e politiche che la circondano. Il dibattito sul rapporto tra automazione e occupazione, per esempio, è largamente inficiato dalla mancanza di una distinzione precisa tra i diversi tipi di automazione: sistemi con strutture di controllo molto diverse vengono trattati come se appartenessero alla stessa categoria, producendo stime sull'impatto occupazionale che variano enormemente a seconda di come si definisce il termine.

Prima di continuare

Elenca tre processi che chiameresti "automatizzati" nella vita quotidiana o in un contesto che conosci. Per ciascuno, prova a indicare: chi ha stabilito le condizioni in base a cui il processo si avvia o si ferma, cosa succederebbe se il sistema si comportasse in modo imprevisto, e chi potrebbe intervenire per correggerlo.

Tre assi per analizzare qualsiasi sistema automatizzato

Invece di cercare una definizione unica, è più utile descrivere ogni sistema automatizzato lungo tre dimensioni indipendenti. Ciascuna è un continuum tra due estremi: ogni sistema reale occupa una posizione specifica su ciascuno dei tre assi, e quella posizione può variare indipendentemente dalle altre due. Lo stesso sistema può delegare quasi completamente il controllo alla macchina e rimanere perfettamente visibile e comprensibile agli operatori; oppure consentire l'intervento umano in qualsiasi momento e risultare comunque del tutto opaco nel suo funzionamento. Queste combinazioni producono effetti molto diversi sul piano pratico, organizzativo e normativo.

Grado di sostituzione del controllo umano 1
Assistenza Controllo delegato

Questa dimensione misura in che misura il sistema sostituisce il giudizio e la decisione dell'operatore umano nel governo del processo. A un estremo si trovano i sistemi di pura assistenza: la macchina raccoglie informazioni, le elabora e le presenta all'operatore, che rimane l'unico soggetto a prendere decisioni. Un sistema di navigazione che suggerisce un percorso alternativo lasciando all'autista la scelta finale si colloca vicino a questo polo. All'altro estremo si trovano i sistemi a controllo completamente delegato: la macchina percepisce le condizioni del processo, valuta le opzioni disponibili e agisce in modo autonomo, senza che nessun operatore umano sia coinvolto nella singola decisione. Un sistema di trading ad alta frequenza, cioè un programma che compra e vende titoli finanziari migliaia di volte al secondo sulla base di segnali di mercato, si colloca vicino a questo polo. La maggior parte dei sistemi industriali reali occupa posizioni intermedie, con automazione parziale di alcune fasi e supervisione umana di altre.

Va distinta la sostituzione del controllo operativo, la decisione momento per momento su cosa fare, dalla sostituzione del controllo strategico, la decisione su quali obiettivi perseguire e in quali condizioni. I sistemi di automazione più avanzati sostituiscono il primo ma non il secondo, che rimane sempre in capo a soggetti umani. Confondere i due livelli è una delle fonti principali di equivoci nel dibattito pubblico sull'automazione.

Reversibilità dell'intervento umano 2
Interruzione immediata Processo non arrestabile

Questa dimensione misura con quale facilità e rapidità un essere umano può interrompere, modificare o invertire un processo automatizzato una volta avviato. A un estremo si trovano i sistemi con interruzione immediata possibile: un operatore può fermare il processo in qualsiasi momento premendo un pulsante, senza conseguenze gravi o irreversibili. La maggior parte dei sistemi di automazione domestica e di ufficio si colloca vicino a questo polo. All'altro estremo si trovano i processi che, una volta avviati, non possono essere fermati senza conseguenze gravi o senza perdere l'intero risultato del lavoro già fatto: certi processi chimici o metallurgici, una volta iniziati, devono essere portati a termine perché fermarli a metà produce danni o sprechi maggiori di quelli che si vogliono evitare. Tra i due estremi si collocano i sistemi con inerzia elevata: tecnicamente interrompibili, ma con costi pratici, economici, organizzativi, tecnici, che rendono l'intervento umano difficile da esercitare in tempo reale.

Questa dimensione è spesso confusa con la prima, ma è indipendente da essa. Un sistema può avere un controllo quasi completamente delegato alla macchina ed essere facilmente interrompibile in qualsiasi momento (un robot aspirapolvere che si può spegnere sollevandolo); oppure richiedere supervisione umana continua e risultare molto difficile da fermare una volta avviato (certi processi di produzione farmaceutica). La reversibilità misura non chi controlla il processo, ma quanto sia praticabile riprendere il controllo quando se ne ha bisogno.

Visibilità del processo automatizzato 3
Processo osservabile Processo invisibile

Questa terza dimensione misura quanto il funzionamento del sistema automatizzato sia osservabile e comprensibile, non solo tecnicamente, ma nella pratica concreta di chi lavora con esso o ne è influenzato. A un estremo si trovano i sistemi completamente osservabili: ogni fase del processo è visibile, i parametri che governano le decisioni automatiche sono accessibili, e chi opera con il sistema può capire in ogni momento cosa sta succedendo e perché. Una linea di produzione con indicatori luminosi e pannelli di controllo accessibili agli operatori si colloca vicino a questo polo. All'altro estremo si trovano i sistemi del tutto invisibili: il processo avviene in luoghi fisici o digitali inaccessibili agli operatori, i parametri che lo governano non sono pubblici, e gli effetti del sistema diventano visibili solo nei risultati finali, senza che sia possibile osservare il percorso che ha portato a quei risultati. Molti sistemi di automazione dei processi aziendali, quelli che gestiscono automaticamente approvvigionamenti, allocazione del personale o prezzi, si collocano verso questo polo.

Questa dimensione è quella con le implicazioni più dirette sul piano del controllo democratico e della responsabilità organizzativa. Un processo automatizzato invisibile è un processo in cui le scelte incorporate nella progettazione del sistema, su chi avvantaggiare, quali errori tollerare, quali obiettivi massimizzare, non sono soggette a verifica né a contestazione da parte di chi ne subisce gli effetti. La visibilità non richiede necessariamente che tutti capiscano i dettagli tecnici: richiede che i criteri che governano il processo siano dichiarati, accessibili e contestabili.

Perché le tre dimensioni sono indipendenti

Un sistema può avere controllo quasi completamente delegato alla macchina, essere facilmente interrompibile in qualsiasi momento e funzionare in modo completamente trasparente agli operatori (un semaforo adattivo che regola i tempi di verde in base al traffico rilevato, con parametri pubblicamente dichiarati e interruzione manuale sempre disponibile). Oppure richiedere supervisione umana continua, risultare molto difficile da fermare una volta avviato e operare in modo del tutto opaco (certi processi finanziari automatizzati gestiti da intermediari terzi). Tutte le combinazioni esistono in forma concreta, e analizzarle su tre assi separati è più preciso che classificarle con un'etichetta unica.

Quattro sistemi che mettono alla prova le dimensioni

I casi che seguono applicano le tre dimensioni a esempi concreti. L'obiettivo non è classificarli definitivamente, ma mostrare che posizioni diverse sui tre assi producono strutture con caratteristiche e implicazioni radicalmente diverse, anche quando il termine usato per descriverle è lo stesso.

Caso 1, Il prototipo percepito: la linea di produzione manifatturiera
Prototipo percepito
Un sistema di nastri trasportatori, bracci meccanici e stazioni di lavorazione che assembla un prodotto fisico, un'automobile, un elettrodomestico, una confezione alimentare, senza che gli operatori debbano intervenire manualmente in nessuna delle fasi principali del processo.

È il caso che la maggior parte delle persone visualizza quando sente "automazione" in un contesto industriale. Le tre dimensioni restituiscono una struttura specifica: controllo in gran parte delegato alla macchina per le operazioni di routine, con supervisione umana concentrata sulle eccezioni e sui malfunzionamenti; reversibilità media, la linea può essere fermata, ma farlo ha costi produttivi e organizzativi significativi; visibilità relativamente alta, il processo fisico è osservabile, i parametri di funzionamento sono accessibili ai tecnici, e le anomalie tendono a manifestarsi in modo visibile. Il prototipo è spesso usato come riferimento nei dibattiti sull'impatto occupazionale dell'automazione, ma la sua struttura è molto diversa da quella dei sistemi di automazione più recenti, che operano su processi informativi invece che fisici.

Caso 2, Sistema controintuitivo: il pilota automatico aeronautico
Controllo quasi totalmente delegato · Alta reversibilità · Alta visibilità
Un sistema che gestisce in modo automatico la traiettoria, la quota, la velocità e l'assetto di un aereo commerciale durante la maggior parte del volo, sulla base di parametri inseriti prima della partenza e di sensori che monitorano continuamente le condizioni atmosferiche e il funzionamento dei motori.

Questo caso mostra come una delega di controllo molto alta possa coesistere con una reversibilità altrettanto alta e una visibilità molto sviluppata. Il sistema ha controllo quasi totalmente delegato durante la crociera, il pilota non tocca i comandi per ore, ma l'intervento umano è immediato e tecnicamente semplice in qualsiasi momento: il pilota può disattivare il pilota automatico con un singolo gesto. La visibilità è molto alta: lo stato del sistema è rappresentato in modo continuo e leggibile sui pannelli di controllo, e i piloti sono addestrati a interpretarne ogni segnale. Questo caso è utile per capire che la delega del controllo non implica necessariamente opacità o irreversibilità, la struttura del sistema può essere progettata in modo da mantenere la possibilità di intervento umano anche in presenza di alta automazione operativa.

Caso 3, Sistema controintuitivo: l'automazione dei processi aziendali
Controllo delegato · Reversibilità formale · Bassa visibilità
Un sistema software che gestisce automaticamente processi amministrativi ripetitivi, approvazione di rimborsi spese, smistamento di pratiche, aggiornamento di database, invio di comunicazioni standardizzate, sulla base di regole configurate da un amministratore di sistema e integrate nei flussi di lavoro aziendali.

Per capire la portata di questo sistema, pensa a quante volte hai ricevuto una risposta automatica da un ufficio, un rimborso approvato o rifiutato, una pratica accettata o respinta, senza che nessuna persona avesse effettivamente letto la tua richiesta. Questo è il funzionamento ordinario dell'automazione dei processi aziendali, che è forse la forma più diffusa di automazione nella vita contemporanea e quella meno discussa nei dibattiti pubblici. Il controllo è delegato per l'intera durata del processo, con supervisione umana solo sulle eccezioni segnalate dal sistema. La reversibilità è formalmente presente, un amministratore può modificare le regole, ma nella pratica è molto limitata: cambiare le regole di un sistema integrato nei flussi di lavoro di un'organizzazione richiede competenze tecniche specifiche, tempo e processi di approvazione che rendono l'intervento tutt'altro che immediato. La visibilità è bassa: le persone che interagiscono con il sistema, sia i dipendenti che i destinatari delle decisioni automatiche, spesso non sanno che stanno interagendo con un processo automatizzato, né quali criteri governano le sue decisioni.

Caso 4, Sistema controintuitivo: la gestione automatizzata dei prezzi
Controllo quasi totalmente delegato · Bassa reversibilità · Invisibilità quasi totale
Un sistema che aggiusta automaticamente i prezzi di prodotti o servizi, biglietti aerei, camere d'albergo, corse in taxi, prodotti su marketplace digitali, in tempo reale, sulla base di dati su domanda, concorrenza, disponibilità residua e comportamento degli utenti, senza che nessun operatore umano approvi le singole variazioni di prezzo.

Questo caso è uno dei più diffusi nella vita quotidiana e uno dei meno riconosciuti come automazione. Quando il prezzo di un volo cambia di decine di euro mentre lo si sta guardando, o quando una corsa in taxi costa il doppio durante un evento affollato, è un sistema automatizzato a prendere quella decisione, non una persona. Le tre dimensioni mostrano una struttura che si colloca agli estremi opposti rispetto al caso del pilota automatico: il controllo è quasi totalmente delegato, con i manager umani che fissano gli obiettivi generali (massimizzare i ricavi, non scendere sotto un certo margine) ma senza approvare nessuna singola variazione; la reversibilità è bassa, modificare i parametri del sistema in risposta a un effetto indesiderato richiede analisi, test e processi aziendali che si misurano in settimane, non in secondi; la visibilità è quasi nulla sia per i consumatori, che vedono solo il prezzo finale, non i criteri che lo hanno generato, sia spesso per i manager stessi, che possono osservare i risultati aggregati ma non il ragionamento che ha portato a ciascuna singola decisione di prezzo.

Il confine del modello

Le tre dimensioni descrivono l'automazione intesa come trasferimento del controllo di un processo da operatori umani a sistemi tecnici. Non si applicano direttamente alla semplice meccanizzazione, l'uso di macchine che amplificano la capacità fisica senza spostare il controllo decisionale, né alla digitalizzazione intesa come conversione di processi cartacei in processi digitali senza modifica della struttura di controllo. In quei contesti, le domande rilevanti riguardano l'ergonomia, l'efficienza e l'accessibilità, non la delega del controllo e la sua reversibilità.

Come riconoscere le dimensioni nei testi reali

I testi che parlano di automazione, articoli di giornale, comunicati aziendali, relazioni sindacali, rapporti di ricerca economica, manuali tecnici, discorsi politici, contengono indicatori linguistici che permettono di collocare un sistema sulle tre dimensioni. Alcuni di questi indicatori sono descrittivi e verificabili; altri svolgono una funzione principalmente retorica, spesso quella di presentare la delega del controllo come un fatto tecnico neutro e inevitabile, oscurando le scelte organizzative e politiche che la circondano. Distinguerli è il lavoro analitico di questo modulo.

1 Segnali sul grado di sostituzione del controllo

Frasi che segnalano controllo delegato: "il sistema decide autonomamente", "senza intervento umano", "in modo completamente automatico", "gestisce in autonomia", "nessuna approvazione manuale necessaria". Queste affermazioni descrivono la struttura di controllo reale del sistema e sono verificabili osservando chi approva le singole decisioni operative.

Frasi che segnalano assistenza con controllo umano residuo: "supporta la decisione dell'operatore", "il giudizio finale rimane al responsabile", "suggerisce, non decide", "strumento di ausilio". Va verificato se queste affermazioni descrivono il funzionamento reale del sistema o se nella pratica le decisioni automatiche vengono accettate sistematicamente senza verifica, il che sposterebbe il sistema effettivamente verso il polo del controllo delegato, indipendentemente da come viene descritto.

2 Segnali sulla reversibilità dell'intervento umano

Frasi che segnalano alta reversibilità: "l'operatore può interrompere in qualsiasi momento", "il sistema si ferma se l'operatore non conferma", "override manuale sempre disponibile", dove override indica la possibilità di ignorare la decisione automatica e sostituirla con una decisione umana. Queste affermazioni vanno verificate nella pratica: l'interruzione è tecnicamente possibile ma organizzativamente scoraggiata?

Frasi che segnalano bassa reversibilità: "processo continuo", "integrato nei flussi di lavoro", "modifica dei parametri soggetta ad approvazione", "aggiornamenti rilasciati dal fornitore". Queste espressioni non descrivono necessariamente un sistema pericoloso, ma segnalano che il controllo umano, pur formalmente presente, è nella pratica difficile da esercitare in tempo reale.

3 Segnali sulla visibilità del processo

Frasi che segnalano processo visibile: "parametri configurabili dall'utente", "log delle decisioni accessibile", dove log indica il registro automatico di tutte le operazioni compiute dal sistema, "criteri di funzionamento pubblicamente dichiarati", "dashboard di monitoraggio in tempo reale", dove dashboard è il pannello di controllo che riassume lo stato del sistema in modo visivo.

Frasi che segnalano processo invisibile: "algoritmo proprietario", "modello ottimizzato internamente", "logica di funzionamento riservata", "i dettagli tecnici non sono divulgabili". Va verificato se l'invisibilità riguarda la struttura interna del sistema, comprensibile in certi contesti di protezione della proprietà intellettuale, oppure i criteri che governano le decisioni che riguardano le persone, caso in cui l'invisibilità ha implicazioni molto più problematiche.

La retorica dell'inevitabilità

Una categoria retorica particolarmente rilevante per l'automazione è quella dell'inevitabilità tecnica: l'affermazione, implicita o esplicita, che l'automazione sia un processo naturale, unidirezionale e non governabile dalle scelte umane, che "avverrà comunque", che "è la direzione in cui va la tecnologia", che "non si può fermare il progresso". Questa retorica è quasi sempre in contraddizione con la struttura concreta dei processi di automazione, che sono il risultato di scelte specifiche su cosa automatizzare, con quale tecnologia, in quale contesto organizzativo, con quali effetti distribuiti tra quali soggetti. Presentare quelle scelte come inevitabilità tecnica è un modo per sottrarle al dibattito politico e alla negoziazione tra le parti coinvolte. Riconoscere questa retorica è una competenza analitica specifica di questo dominio, ed è la competenza che accomuna tutti e quattro i moduli di questa serie.

Domanda di riflessione: la dimensione della reversibilità è quella che misura più direttamente la possibilità concreta, non solo formale, di riprendere il controllo umano di un processo automatizzato. Un sistema tecnicamente interrompibile ma organizzativamente difficile da fermare produce effetti simili a un sistema non interrompibile: il controllo umano esiste sulla carta ma non nella pratica. In quale misura la distinzione tra reversibilità formale e reversibilità pratica dovrebbe essere riconosciuta esplicitamente nelle norme che regolano l'automazione dei processi che riguardano le persone?

Descrizione tecnica o organizzativa Affermazione che descrive come il sistema è costruito o come funziona: quali parametri governano il processo automatizzato, chi può modificarli, in quali condizioni il sistema si avvia o si ferma.

Segnali tipici: specificazione dei parametri di funzionamento, indicazione di chi ha accesso ai controlli, descrizione delle condizioni di attivazione e di interruzione, limiti dichiarati del sistema. Queste affermazioni sono verificabili confrontandole con la documentazione tecnica del sistema, con i contratti di fornitura o con le osservazioni dirette del funzionamento nella pratica.

Affermazione empirica con fonte Affermazione che riporta dati misurati sull'efficienza, la diffusione o gli effetti del sistema automatizzato, con indicazione della fonte o del metodo di misurazione.

Segnali tipici: percentuali di riduzione dei tempi o dei costi, dati sull'impatto occupazionale, cifre sulla diffusione del sistema, tassi di errore o di malfunzionamento. Va verificato se la fonte è indipendente o prodotta dall'azienda che commercializza il sistema, se i dati riguardano il breve o il lungo periodo, e se gli effetti distribuiti tra i diversi soggetti coinvolti sono riportati in modo completo o selettivo.

Retorica dell'inevitabilità o del progresso Affermazione che presenta l'automazione come un processo naturale, neutro o inevitabile, senza dati verificabili o in contraddizione con la struttura di scelte concrete che la caratterizza.

Segnali tipici: "il futuro del lavoro", "la quarta rivoluzione industriale", "non si può fermare il progresso", "le aziende che non automatizzano resteranno indietro", "è solo una questione di tempo". Queste espressioni costruiscono un'immagine dell'automazione come forza naturale e direzionata, oscurando le scelte specifiche, tecnologiche, organizzative, politiche, che determinano quali processi vengono automatizzati, con quali effetti e per chi.

Prima di passare all'esercizio

Qual è la differenza principale tra una Descrizione tecnica o organizzativa e la Retorica dell'inevitabilità? Costruisci un esempio di ciascuna partendo dallo stesso processo automatizzato che hai in mente, e spiega perché un lettore non attento potrebbe confonderle. Considera poi: la retorica dell'inevitabilità è sempre usata per difendere l'automazione, o può essere usata anche per criticarla? Cosa cambia nelle due direzioni?

Analizza il testo: usa i pulsanti per evidenziare

Leggi il testo seguente per intero, senza usare ancora i pulsanti. Poi rileggi una seconda volta attivando un pulsante alla volta. Il testo è un articolo divulgativo fittizio pubblicato su una rivista di economia e lavoro, a proposito dell'introduzione di un sistema di automazione logistica in un grande magazzino di distribuzione, un contesto settoriale specifico e distante dall'esperienza diretta della maggior parte dei lettori, scelto perché consente di osservare le tre dimensioni dell'automazione in un ambiente fisico concreto, dove gli effetti sul lavoro e sulle persone sono diretti e visibili.

Alcune espressioni usate nel testo: picking indica l'operazione di prelievo di un prodotto da una scaffalatura per preparare un ordine; throughput indica la quantità di ordini processati in un'unità di tempo, cioè la capacità produttiva del magazzino; wearable indica un dispositivo elettronico indossabile, come un bracciale o un auricolare, che trasmette istruzioni o raccoglie dati sull'operatore che lo indossa.

Ogni elemento marcato appartiene in modo netto a una sola categoria. Non ci sono casi volutamente ambigui.

Articolo divulgativo fittizio, Interattivo
Descrizione tecnica o organizzativa
Affermazione empirica con fonte
Retorica dell'inevitabilità o del progresso
Neutro (non evidenziato)

Il magazzino che non dorme mai


Alle tre di notte, nel polo logistico di DistribItalia alle porte di Bologna, non c'è nessun operatore sui corridoi. Eppure il magazzino lavora: cinquantadue navette automatiche scivolano lungo i binari sopraelevati, recuperano i pallet dalle scaffalature alte fino a quattordici metri e li depositano sulle linee di smistamento. È il futuro della logistica, ed è già qui.


Il sistema, denominato AutoLog 3.0 e fornito dalla società tedesca LagerTech, gestisce in modo completamente automatico le operazioni di stoccaggio e recupero delle merci nelle ore notturne, dalle 22 alle 6. Durante le fasce diurne, le navette automatiche operano in parallelo con gli operatori umani in un'area fisicamente separata del magazzino, delimitata da barriere fotoelettriche che fermano le navette se un operatore entra nella zona riservata ai sistemi automatici. I parametri di priorità degli ordini, quale scaffalatura accedere per prima, quale percorso seguire, quando cedere la precedenza alla linea di smistamento manuale, sono configurati dal responsabile logistico tramite un pannello di controllo dedicato e possono essere modificati in tempo reale.


Secondo i dati forniti da DistribItalia, l'introduzione del sistema ha aumentato il throughput notturno del 340% rispetto alla gestione manuale precedente, riducendo i tempi medi di evasione degli ordini da 18 a 6 ore. I dati si riferiscono ai primi sei mesi di operatività del sistema e non sono stati verificati da enti indipendenti.


Le cose sono più complesse guardando la fascia diurna. Gli operatori umani che lavorano nelle aree manuali indossano un bracciale wearable che riceve istruzioni dal sistema centrale: indica quale prodotto prelevare, in quale posizione si trova e in quale sequenza completare le operazioni di picking. Il sistema registra in tempo reale la velocità di esecuzione di ciascun operatore e genera un indicatore di produttività aggiornato ogni quindici minuti, visibile sia all'operatore stesso sia al responsabile di turno.


Una ricerca condotta dal gruppo di studio sul lavoro digitale dell'Università di Trento su diciassette magazzini automatizzati in Italia e Germania ha rilevato che la presenza di sistemi di monitoraggio in tempo reale della produttività individuale è associata a un aumento statisticamente significativo dei disturbi muscoloscheletrici tra gli operatori, attribuibile all'accelerazione dei ritmi di lavoro indotta dalla visibilità continua degli indicatori di performance (fonte: Osservatorio sul Lavoro Digitale, Università di Trento, Rapporto 2024).


Il sindacato di categoria ha aperto un tavolo di confronto con la direzione aziendale. «Non siamo contro l'automazione» ha dichiarato la rappresentante sindacale. «Ma non possiamo accettare che il progresso tecnologico si traduca automaticamente in peggioramento delle condizioni di lavoro. Quello non è progresso: è una scelta.» La direzione di DistribItalia ha risposto che «le aziende che non investono in automazione perdono competitività e alla fine chiudono, il che è il peggiore dei risultati possibili per i lavoratori».


I dati di produttività raccolti dal sistema wearable vengono conservati per dodici mesi e possono essere utilizzati nei processi di valutazione delle prestazioni dei singoli lavoratori, secondo quanto previsto dal contratto integrativo aziendale firmato nel 2022. Non è prevista la possibilità per i lavoratori di accedere alla serie storica dei propri dati né di contestare singole rilevazioni ritenute non rappresentative delle condizioni di lavoro effettive.

Guida all'uso dei pulsanti

Attiva un pulsante alla volta. Leggi tutto il testo con quel filtro prima di passare al successivo. Le parti non evidenziate in nessuna modalità sono parti neutre: informazioni di contesto, elementi narrativi, passaggi descrittivi senza implicazioni valutative dirette.

Dove si nascondeva la tensione

Il testo è costruito in modo da mescolare tre registri distinti con la coerenza narrativa di un reportage giornalistico equilibrato. Il tono descrittivo, con dati tecnici, voci diverse e un'apparente equidistanza, tende a far percepire le affermazioni retoriche come ugualmente fondate rispetto a quelle tecniche o empiriche. Un elemento strutturale merita attenzione preliminare: il testo contiene retorica dell'inevitabilità in entrambe le direzioni, usata dalla direzione aziendale per difendere l'automazione e usata dalla rappresentante sindacale per criticarla. Questo è un caso reale, non una costruzione artificiale del testo: la retorica dell'inevitabilità è uno strumento argomentativo che può essere impiegato da qualsiasi posizione nel dibattito.

Tensione 1, La visibilità selettiva del sistema di monitoraggio

Il testo descrive il sistema wearable come uno strumento che rende visibile la produttività individuale "sia all'operatore stesso sia al responsabile di turno", suggerendo una simmetria informativa. L'ultimo paragrafo smonta quella simmetria: i dati vengono conservati per dodici mesi, possono essere usati nelle valutazioni delle prestazioni, ma gli operatori non possono accedere alla propria serie storica né contestare singole rilevazioni. Il sistema è visibile in entrata, l'operatore vede il proprio indicatore in tempo reale, ma opaco in uscita: i dati accumulati non sono accessibili a chi li ha prodotti. Questa asimmetria non è un dettaglio tecnico: è una scelta di progettazione che distribuisce il potere informativo in modo non neutro tra l'azienda e i lavoratori.

Tensione 2, Il dato sul throughput e ciò che non misura

Il dato sul +340% di throughput notturno è presentato come affermazione empirica con fonte, ma la frase successiva, "i dati si riferiscono ai primi sei mesi di operatività e non sono stati verificati da enti indipendenti", lo ridimensiona significativamente. Oltre alla questione della fonte interna e del periodo breve, c'è un problema strutturale: il dato misura l'efficienza del processo automatizzato, non gli effetti complessivi del sistema sull'organizzazione del lavoro. Il testo affianca a questo dato, pochi paragrafi dopo, la ricerca indipendente dell'Università di Trento che misura invece gli effetti sulla salute degli operatori, un dato che non compare nel comunicato aziendale. I due dati non si contraddicono sul piano tecnico, ma misurano cose diverse: uno misura cosa guadagna l'azienda, l'altro misura cosa costano i lavoratori.

Tensione 3, La retorica dell'inevitabilità in direzioni opposte

Il testo contiene due usi della retorica dell'inevitabilità che si contraddicono a vicenda e che, proprio per questo, rivelano il meccanismo sottostante. La direzione aziendale usa il frame dell'inevitabilità per presentare l'automazione come una condizione data: "le aziende che non automatizzano perdono competitività e chiudono", quindi non c'è scelta. La rappresentante sindacale usa lo stesso frame per separare la tecnologia dalle sue conseguenze sul lavoro: "il progresso tecnologico non si traduce automaticamente in peggioramento, quello è una scelta". Entrambe le affermazioni usano la parola "automaticamente", la prima implicitamente, la seconda esplicitamente, per indicare cosa è inevitabile e cosa invece è il risultato di decisioni. La differenza non è retorica: è una differenza su dove si colloca la responsabilità delle scelte. Identificare su quale passaggio specifico i due argomenti divergono è un esercizio analitico diretto che le tre dimensioni del modulo consentono di compiere.

Cosa hai visto, e cosa cambia adesso

Hai lavorato su un testo costruito per essere analizzato. Le domande che seguono non hanno una risposta esatta: chiedono di ragionare sui meccanismi, non di classificare correttamente le frasi.

Il testo contiene due descrizioni tecniche che riguardano aspetti diversi del sistema: la gestione automatica delle navette notturne e il sistema di monitoraggio wearable degli operatori diurni.
Le due descrizioni operano sulla stessa dimensione o su dimensioni diverse? Quale delle due ha implicazioni più dirette per la reversibilità dell'intervento umano? E quale per la visibilità del processo?

Nel testo compaiono due affermazioni empiriche con fonte: una prodotta dall'azienda stessa, l'altra da un gruppo di ricerca universitario indipendente. Le due affermazioni non si contraddicono direttamente, misurano cose diverse.
In che senso la scelta di cosa misurare è già una scelta di valore? Cosa direbbe un testo che includesse solo il primo dato? E uno che includesse solo il secondo?

Questo modulo ha mostrato che la retorica dell'inevitabilità può essere usata in direzioni opposte. Il modulo sull'Intelligenza Artificiale ha mostrato che la retorica di intelligenza attribuita e quella di svalutazione producono effetti distorcenti simmetrici.
Qual è il meccanismo comune a tutte le retoriche analizzate in questa serie, Piattaforme, Robot, IA, Automazione? Cosa hanno in comune, al di là del contenuto specifico di ciascun dominio?

La tua osservazione finale

Pensa a un processo automatizzato che riguarda la tua vita, un sistema che ordina contenuti che consumi, che regola un servizio che usi, che governa un processo lavorativo o scolastico in cui sei coinvolto. Scegli una delle tre dimensioni e prova a collocarla lungo il suo asse sulla base delle informazioni che hai. Poi cerca un testo che parla di quel sistema e identifica almeno una frase che descrive la struttura concreta e almeno una che svolge una funzione retorica. Se la retorica va nella direzione della critica all'automazione invece che della sua difesa, segnalalo: cambia la struttura del meccanismo retorico, o solo il segno?

Fonti e bibliografia

I testi che seguono costituiscono la base empirica e teorica del modulo. Le voci sono organizzate in tre aree: studi sulla storia e sulla definizione dell'automazione; ricerche sulle implicazioni per il lavoro e le organizzazioni; riferimenti sul controllo algoritmico e sulla visibilità dei processi automatizzati.

  • Noble, D. F. (1984). Forces of Production: A Social History of Industrial Automation. Knopf.
  • Studio storico fondamentale sull'automazione nell'industria manifatturiera americana del Novecento. Mostra come le scelte tecnologiche sull'automazione siano sempre state anche scelte organizzative e politiche, su chi controlla il processo produttivo, con quale margine di discrezionalità, e con quali effetti sulla distribuzione del potere tra management e lavoratori. Rilevante per tutte e tre le dimensioni del modulo, in particolare per il grado di sostituzione del controllo umano.
  • Autor, D. H., Levy, F., & Murnane, R. J. (2003). The skill content of recent technological change: An empirical exploration. Quarterly Journal of Economics, 118(4), 1279–1333.
  • Articolo di ricerca economica che introduce il modello di classificazione dei compiti lavorativi in base alla loro automatizzabilità, distinguendo compiti di routine da compiti non di routine, e compiti manuali da compiti cognitivi. È il punto di partenza del dibattito accademico moderno sul rapporto tra automazione e occupazione. Fornisce il fondamento empirico per ragionare sulla dimensione del grado di sostituzione del controllo umano.
  • Danaher, J. (2016). The threat of algocracy: Reality, resistance and accommodation. Philosophy & Technology, 29(3), 245–268.
  • Analisi filosofica del concetto di "algocracy", governo degli algoritmi, inteso come forma di potere politico esercitato attraverso sistemi automatizzati opachi. Sviluppa un argomento preciso sul perché la visibilità dei criteri che governano i processi automatizzati sia una condizione necessaria per la legittimità democratica di quei processi. Direttamente rilevante per la dimensione della visibilità del processo automatizzato.
  • Woodcock, J. (2021). The Fight Against Platform Work: The New Unions Challenging the Gig Economy. Pluto Press.
  • Studio sulle forme di controllo automatizzato del lavoro nelle piattaforme digitali, sistemi di valutazione, assegnazione algoritmica dei compiti, monitoraggio in tempo reale delle prestazioni. Analizza come questi sistemi combinino alta delega del controllo operativo, bassa reversibilità pratica e visibilità asimmetrica, esattamente la struttura descritta nel caso del sistema wearable dell'esercizio. Utile per collegare il modulo sull'Automazione a quello sulle Piattaforme.
  • Acemoglu, D., & Restrepo, P. (2019). Automation and new tasks: How technology displaces and reinstates labor. Journal of Economic Perspectives, 33(2), 3–30.
  • Analisi economica del rapporto tra automazione e occupazione che va oltre il dibattito binario "l'automazione distrugge lavoro / crea lavoro". Introduce la distinzione tra automazione che sostituisce compiti umani e innovazione che crea nuovi compiti, e mostra come l'effetto occupazionale netto dipenda dall'equilibrio tra i due processi, un equilibrio che non è determinato dalla tecnologia in sé ma dalle scelte politiche e organizzative che la circondano. Direttamente rilevante per smontare la retorica dell'inevitabilità analizzata in questo modulo.

Un processo automatizzato non scompare una volta che lo si comprende. Ma conoscerlo ci aiuta a mettere a fuco meglio la domanda: non più "è efficiente o no?", ma "chi controlla questo processo, chi può fermarlo, e chi sa cosa sta succedendo al suo interno?".