«La tecnologia ci impone...», ma chi, esattamente?
Questo modulo è il punto di arrivo del percorso. Presuppone che tu abbia compreso: che l'AI non è un soggetto (Modulo 1), che i dati non sono neutrali (Modulo 2), che l'impatto cognitivo dipende dall'uso (Modulo 3) e che gli ambienti algoritmici sono progettati (Modulo 4). Solo con queste premesse ha senso analizzare chi sta dietro alla narrazione del «destino tecnologico inevitabile».
«Il digitale ci impone di adattarci.» «L'automazione è inevitabile: chi non si adegua resta indietro.» «La tecnologia avanza, non possiamo fermarla.» Frasi come queste circolano nel dibattito pubblico su AI, lavoro, società. Sembrano descrivere leggi naturali, come la gravità o il clima. In realtà, descrivono scelte umane presentate come forze impersonali.
Il problema non è che la tecnologia cambi la società, lo fa, e in modi complessi. Il problema è che il tecno-determinismo linguistico («la tecnologia impone», «il progresso richiede») sposta l'attenzione dalle scelte politiche, economiche e progettuali che stanno dietro ai cambiamenti tecnologici. Questo spostamento ha conseguenze reali: naturalizza disuguaglianze, deresponsabilizza chi progetta, riduce lo spazio per alternative.
Quando un articolo dice «L'AI trasformerà il mercato del lavoro», sta usando una grammatica che nasconde i soggetti: chi sta sviluppando questi sistemi? Con quali obiettivi? Secondo quali criteri etici? Chi beneficia delle trasformazioni e chi ne subisce i costi? La frase non è falsa, l'AI trasformerà il lavoro. Ma la forma linguistica («L'AI trasformerà») rimuove l'agency umana e presenta il cambiamento come un destino inevitabile.
Ecco il punto cruciale: il tecno-determinismo non è una teoria scientifica, è una narrazione retorica. Serve a legittimare scelte presentandole come necessarie, a ridurre il dibattito pubblico a questioni tecniche, a spostare la responsabilità dagli attori umani a forze impersonali. Imparare a riconoscere quando un testo nasconde i soggetti dietro la tecnologia è il quinto e ultimo passo per sviluppare una competenza critica stabile, trasferibile a molti altri ambiti del discorso pubblico.
Presenta lo sviluppo tecnologico come un processo autonomo e inevitabile, ignorando che ogni innovazione è il risultato di scelte umane: investimenti, regolazioni, priorità etiche, modelli economici.
Studi di sociologia della tecnologia e Science & Technology Studies (STS) mostrano che l'innovazione non segue una traiettoria lineare e inevitabile, ma è il risultato di negoziazioni, conflitti e scelte contingenti.
Prima di continuare
Pensa a un articolo, un post o una conversazione recente in cui hai letto o sentito parlare di tecnologia usando frasi come «la tecnologia impone», «il progresso richiede», «non possiamo fermare l'innovazione». Ti è sembrato un modo efficace per comunicare, o hai avvertito una distorsione? Quali soggetti reali potrebbero essere nascosti dietro quella grammatica?
Sparizione dei soggetti, Dato iper-esteso, Futuro già scritto
Quando leggiamo un testo che parla di tecnologia e società, possiamo incontrare tre tipi distinti di affermazione deterministica. Riconoscerli è l'obiettivo operativo di questo modulo. Ciascuno ha segnali linguistici ricorrenti e implica un diverso livello di consapevolezza politica.
La grammatica nasconde governi, aziende o gruppi di interesse dietro soggetti inanimati: «Il digitale ci impone», «L'innovazione richiede», «La tecnologia trasforma». Questi verbi attribuiscono agency a entità astratte, rimuovendo la responsabilità dagli attori umani che prendono decisioni concrete.
Segnali da cercare: soggetti inanimati che compiono azioni («il digitale impone», «l'algoritmo decide», «la rete trasforma»); assenza di riferimenti a chi ha progettato, regolato o beneficiato del cambiamento; verbi di necessità («richiede», «impone», «obbliga») applicati a processi tecnologici.
Ricerche limitate o contestuali vengono usate per giustificare l'inevitabilità globale: uno studio su un campione specifico diventa prova di una tendenza universale; un caso locale viene presentato come destino mondiale. Questa operazione retorica trasforma l'incertezza in certezza.
Segnali da cercare: generalizzazioni non giustificate («tutti i lavoratori», «ogni settore», «in tutto il mondo») basate su evidenze limitate; assenza di riferimenti ai limiti dello studio citato; uso di dati descrittivi per supportare conclusioni normative («accade, quindi deve accadere»).
La narrazione riduce le opzioni umane al dualismo «adattati o muori», presentando un solo scenario come inevitabile e rendendo invisibili alternative plausibili. Questa operazione retorica chiude il dibattito politico prima che inizi.
Come riconoscerla: frasi come «non c'è alternativa», «chi non si adegua resta indietro», «il futuro è questo»; assenza di riferimenti a scenari alternativi o a scelte collettive possibili; uso di metafore belliche o darwiniste («sopravvivenza», «competizione», «vincitori e vinti»).
Le tre categorie portano a conclusioni pratiche molto diverse. Se riconosciamo la sparizione dei soggetti, possiamo chiedere conto a chi ha preso le decisioni. Se identifichiamo il dato iper-esteso, possiamo valutare criticamente la portata reale delle evidenze. Se rileviamo il futuro già scritto, possiamo aprire lo spazio per alternative. Un testo può mescolare i tre registri, o usarne uno solo. Riconoscere quale è in atto in ogni passaggio è il lavoro critico che questo modulo ti insegna a fare.
Le tre categorie all'opera, con testi reali
I quattro esempi che seguono mostrano le tre categorie in frasi simili a quelle che trovi davvero in articoli, libri e dichiarazioni. Per ognuno è indicata la categoria e viene spiegato esattamente dove sta il problema, o perché invece funziona bene. Leggili nell'ordine prima di passare all'esercizio.
Questa frase attribuisce agency al «digitale» («impone»), nascondendo i soggetti reali che stanno dietro alla riorganizzazione: aziende che scelgono modelli organizzativi, governi che definiscono regolazioni, sindacati che negoziano condizioni. La grammatica deterministica («impone», «resterà escluso») presenta il cambiamento come inevitabile, rimuovendo lo spazio per alternative. Una descrizione più accurata sarebbe: «Alcune aziende stanno riorganizzando il lavoro intorno a strumenti digitali; le conseguenze per i lavoratori dipendono da scelte politiche, contrattuali e formative che possono essere negoziate».
Questa frase compie un salto illegittimo: da uno studio limitato (200 lavoratori, un settore specifico, un contesto geografico particolare) a una conclusione universale («tutti i settori economici globali»). Il problema non è lo studio in sé, potrebbe essere ben condotto, ma l'uso retorico dei suoi risultati per legittimare una narrazione deterministica. Una descrizione più accurata sarebbe: «Questo studio suggerisce che in certi contesti l'AI può aumentare la produttività; la generalizzazione ad altri settori richiede ricerche specifiche che tengano conto di differenze organizzative, normative e culturali».
Questa frase riduce lo spazio delle possibilità a un dualismo forzato («protagonisti o vittime») e presenta un solo scenario come inevitabile («il futuro del lavoro è questo»). I segnali sono chiari: «non c'è alternativa», «possiamo solo decidere», metafora bellica («protagonisti o vittime»). Questa narrazione chiude il dibattito politico: se il futuro è già scritto, non ha senso discutere alternative. Una descrizione più aperta sarebbe: «L'automazione pone sfide complesse; diversi paesi stanno sperimentando approcci diversi, dalla riqualificazione alla riduzione dell'orario, dalla tassazione dei robot al reddito universale, e il dibattito su quale percorso privilegiare è legittimo e necessario».
Questo è un esempio di narrazione non-deterministica. La frase esplicita i soggetti reali («grandi aziende tecnologiche», «regolazioni nazionali», «scelte sindacali»), riconosce l'incertezza degli esiti («implicazioni diverse», «alcuni scenari... altri»), e apre lo spazio per l'agency collettiva («decisioni politiche che possono essere influenzate»). Non nega la complessità del cambiamento, ma la contestualizza come prodotto di scelte umane negoziabili. È il registro più politicamente informato.
Nel testo dell'esercizio ci sono anche passaggi descrittivi e di transizione che non appartengono a nessuna delle tre categorie. Riconoscerli è parte del lavoro: non ogni frase che menziona tecnologia o futuro è un'affermazione classificabile. Descrizioni tecniche neutre, definizioni, o posizioni riportate senza essere sostenute dall'autore del testo non richiedono un'etichetta.
I tre criteri da usare nell'esercizio
Prima di passare all'esercizio, rileggi le tre categorie in versione operativa, come criteri da applicare durante la lettura. Ogni parte evidenziata nel testo dell'esercizio appartiene in modo netto a una sola di esse.
Segnali da cercare: soggetti inanimati che compiono azioni («il digitale impone», «l'algoritmo decide», «la rete trasforma»); assenza di riferimenti a chi ha progettato, regolato o beneficiato del cambiamento; verbi di necessità («richiede», «impone», «obbliga») applicati a processi tecnologici. Attenzione: non tutti i riferimenti alla tecnologia sono distorsivi, ma quando la grammatica rimuove sistematicamente l'agency umana, siamo nel campo della sparizione dei soggetti.
Segnali da cercare: generalizzazioni non giustificate («tutti i lavoratori», «ogni settore», «in tutto il mondo») basate su evidenze limitate; assenza di riferimenti ai limiti dello studio citato; uso di dati descrittivi per supportare conclusioni normative («accade, quindi deve accadere»). La qualità si misura dalla proporzione tra la portata dello studio e la forza della conclusione.
Segnali da cercare: frasi come «non c'è alternativa», «chi non si adegua resta indietro», «il futuro è questo»; assenza di riferimenti a scenari alternativi o a scelte collettive possibili; uso di metafore belliche o darwiniste («sopravvivenza», «competizione», «vincitori e vinti»). Questa categoria non nega il cambiamento tecnologico, ma critica la chiusura retorica dello spazio politico.
Differenza dalle altre due: non riguarda l'accuratezza dei dati né la visibilità dei soggetti, ma la riduzione illegittima delle possibilità future.
Nel testo dell'esercizio ci sono anche passaggi descrittivi e di transizione che non appartengono a nessuna delle tre categorie. Riconoscerli è parte del lavoro: non ogni frase che menziona tecnologia o futuro è un'affermazione classificabile.
Prima di passare all'esercizio
Qual è la differenza tra dire «l'automazione trasformerà il lavoro» (sparizione dei soggetti) e «alcune aziende stanno automatizzando processi, con effetti che dipendono da scelte regolatorie» (riconoscimento dei soggetti)? Prova a spiegare con un esempio concreto: quando la grammatica deterministica ti sembra più persuasiva e quando invece ti sembra fuorviante?
Analizza il testo: usa i pulsanti per evidenziare
Leggi il testo seguente per intero, senza usare ancora i pulsanti. Poi rileggi una seconda volta attivando un pulsante alla volta. Il testo analizza il rapporto tra narrazioni tecnologiche e agency umana, distinguendo tra determinismo retorico e descrizione critica.
Ogni parte evidenziata appartiene in modo netto a una sola categoria. Non ci sono casi volutamente ambigui.
Nel dibattito pubblico sullo sviluppo tecnologico, le narrazioni deterministiche sono pervasive: presentano il cambiamento come inevitabile, nascondono i soggetti reali dietro grammatiche impersonali, riducono lo spazio per alternative. Imparare a riconoscere questi meccanismi è essenziale per partecipare consapevolmente al dibattito sul futuro.
Molti articoli affermano che «il digitale impone una trasformazione radicale delle competenze»: la grammatica attribuisce agency al «digitale», nascondendo le aziende che scelgono modelli formativi, i governi che definiscono politiche educative, i sindacati che negoziano condizioni di riqualificazione. Questa sparizione dei soggetti non è neutra: sposta la responsabilità dagli attori umani a forze impersonali, riducendo lo spazio per il dibattito politico.
Alcune narrazioni citano studi limitati per supportare conclusioni universali: una ricerca su un campione specifico di lavoratori tech viene presentata come prova che «l'AI beneficerà tutti i settori economici globali». Questo salto illegittimo trasforma l'incertezza scientifica in certezza retorica, legittimando scelte politiche come se fossero dimostrazioni empiriche.
Il problema si complica quando il determinismo linguistico si combina con la riduzione delle possibilità future.
Alcuni discorsi pubblici riducono le opzioni al dualismo «adattati o muori»: «Non c'è alternativa all'automazione diffusa; chi non si adegua resta indietro; il futuro del lavoro è questo, possiamo solo decidere se esserne protagonisti o vittime». Questa narrazione chiude il dibattito politico prima che inizi: se il futuro è già scritto, non ha senso discutere alternative, regolazioni, modelli diversi di sviluppo tecnologico.
Altre affermazioni attribuiscono decisioni strategiche a entità astratte: «L'innovazione richiede flessibilità», «La competitività impone mobilità», «Il progresso tecnologico obbliga a ripensare i diritti». In ciascun caso, la grammatica nasconde i soggetti reali: quali attori definiscono cosa sia «innovazione», «competitività» o «progresso»? Con quali criteri? A beneficio di chi?
Studi recenti mostrano che gli effetti dell'automazione variano significativamente a seconda di contesto normativo, modello organizzativo e politiche di accompagnamento (Autor et al., 2023). Questa è un'affermazione con dati nella sua forma rigorosa: cita la fonte, riconosce la variabilità degli esiti, e implicitamente apre lo spazio per scelte politiche differenziate. Non è un dato iper-esteso, perché non generalizza illegittimamente.
Al contrario, narrazioni che presentano un solo scenario come inevitabile, ignorando sperimentazioni in corso su riduzione dell'orario, reddito di base, tassazione dell'automazione, riducono artificialmente lo spazio delle possibilità. Questa è un'istanza del «futuro già scritto»: non nega la complessità del cambiamento, ma la rappresenta come un destino unico, rendendo invisibili alternative plausibili e legittime.
Nel complesso, imparare a distinguere tra sparizione dei soggetti, dato iper-esteso e futuro già scritto è il quinto e ultimo passo per sviluppare una competenza critica stabile, trasferibile a molti altri ambiti del discorso pubblico, non solo alla tecnologia.
Attiva un pulsante alla volta. Leggi tutto il testo con quel filtro attivo prima di passare al successivo. Le parti non evidenziate in nessuna modalità sono neutre: descrizioni, transizioni, o posizioni riportate senza essere sostenute dall'autore del testo.
Cosa hai visto, e cosa cambia adesso
Hai lavorato su un testo costruito per essere analizzato. Le domande che seguono non hanno una risposta esatta: chiedono di ragionare sui meccanismi, non di classificare correttamente ogni frase.
Nel testo hai trovato due esempi di sparizione dei soggetti che prendono le decisioni: uno descrive il «digitale» che «impone» trasformazioni, l'altro attribuisce decisioni a «innovazione», «competitività», «progresso». Sono due facce della stessa distorsione grammaticale, o c'è una differenza importante tra nascondere soggetti dietro «il digitale» e nasconderli dietro concetti astratti? Come cambia la tua reazione a seconda della formulazione?
Quale delle tre categorie ti è risultata più difficile da riconoscere nel testo? Era difficile per la forma delle frasi, per il contenuto, o perché somigliava a un'altra categoria? Prova a capire da dove veniva l'esitazione, e se quella stessa esitazione potrebbe capitarti leggendo un articolo normale sul futuro del lavoro o sull'innovazione, fuori da questo contesto didattico.
Quando un testo esplicita i soggetti reali e riconosce la variabilità degli esiti (come nel paragrafo su Autor et al., 2023), ti sembra che questo aumenti o diminuisca la tua fiducia nella credibilità dell'autore? Perché riconoscere l'incertezza e la contingenza dovrebbe, o non dovrebbe, influenzare la tua valutazione di un'affermazione sul futuro tecnologico?
La tua osservazione finale
Pensa a un articolo, un post, un video o una conversazione che hai incontrato di recente sul tema del futuro tecnologico, o su qualsiasi tema in cui si parla di cambiamenti sociali presentati come inevitabili. Riesci a identificare almeno un passaggio in cui era presente una delle tre categorie che hai appena studiato? Descrivi quel passaggio e prova a dire quale categoria riconosci adesso, e se questa consapevolezza cambia il modo in cui valuti quell'affermazione o il modo in cui vorresti partecipare al dibattito.
Da dove vengono queste idee
Le tre categorie che hai usato in questo modulo vengono da ricerche reali su sociologia della tecnologia, Science & Technology Studies (STS) e analisi del discorso politico-tecnologico. I testi che seguono sono la base di questo modulo. Non devi leggerli tutti, ma se qualcosa ti ha incuriosito, qui puoi partire. Per chi vuole un punto di accesso immediato, il libro di Williams (2023) è particolarmente chiaro nel mostrare come il linguaggio deterministico nasconda scelte politiche.
- Williams, R. (2023). The Myth of Inevitability: How Language Shapes Our Technological Future. MIT Press. [Analisi accessibile di come la grammatica deterministica nasconda scelte politiche e riduca lo spazio per alternative.]
- Winner, L. (1977). Autonomous Technology: Technics-out-of-Control as a Theme in Political Thought. MIT Press. [Fondamentale per comprendere come il tecno-determinismo sia una narrazione politica, non una descrizione scientifica.]
- Latour, B. (2005). Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford University Press. [Propone un metodo per «seguire gli attori» e rendere visibili le reti di relazioni che producono il cambiamento tecnologico.]
- Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press. [Mostra come le scelte progettuali dietro gli algoritmi riflettano valori e interessi specifici, non neutralità tecnica.]
- Autor, D. H., Mindell, D. A., & Reynolds, E. B. (2023). The Work of the Future: Building Better Jobs in an Age of Intelligent Machines. MIT Task Force on the Work of the Future. [Studio empirico che mostra come gli effetti dell'automazione varino a seconda di contesto normativo e scelte politiche.] https://workofthefuture.mit.edu
- Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press. [Contestualizza l'AI come prodotto di scelte umane, materiali e politiche, non come forza autonoma.]
- Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs. [Analizza come modelli economici specifici orientino lo sviluppo tecnologico, presentando scelte di potere come destini inevitabili.]
La tecnologia non è un destino, è una scelta. Oltre a chiederci «come ci adattiamo al futuro che la tecnologia ci impone?», domandiamoci «chi sta progettando questo futuro, con quali valori, e quali alternative stiamo rendendo invisibili con il linguaggio che usiamo?».