LE NARRAZIONI PUBBLICHE SULL'AI

La tecnologia
non decide per noi

Sfatare il mito del tecno-determinismo, imostrnado che la tecnologia non è una forza della natura impossibile da orientare o fermare: è sempre il risultato di scelte umane, di potere e di progettazione.

COME USARE QUESTO MODULO

  • Leggi le prime quattro fasi: ti mostrano come il linguaggio nasconde i soggetti reali dietro la tecnologia e come narrazioni deterministiche riducono le opzioni umane.
  • Nella fase 5 analizza un testo usando i pulsanti colorati per identificare tre tipi di affermazione.
  • Tempo stimato: 30–45 minuti in una sola sessione.

«La tecnologia ci impone...», ma chi, esattamente?

Prerequisiti: Moduli 1-4

Questo modulo è il punto di arrivo del percorso. Presuppone che tu abbia compreso: che l'AI non è un soggetto (Modulo 1), che i dati non sono neutrali (Modulo 2), che l'impatto cognitivo dipende dall'uso (Modulo 3) e che gli ambienti algoritmici sono progettati (Modulo 4). Solo con queste premesse ha senso analizzare chi sta dietro alla narrazione del «destino tecnologico inevitabile».

«Il digitale ci impone di adattarci.» «L'automazione è inevitabile: chi non si adegua resta indietro.» «La tecnologia avanza, non possiamo fermarla.» Frasi come queste circolano nel dibattito pubblico su AI, lavoro, società. Sembrano descrivere leggi naturali, come la gravità o il clima. In realtà, descrivono scelte umane presentate come forze impersonali.

Il problema non è che la tecnologia cambi la società, lo fa, e in modi complessi. Il problema è che il tecno-determinismo linguistico («la tecnologia impone», «il progresso richiede») sposta l'attenzione dalle scelte politiche, economiche e progettuali che stanno dietro ai cambiamenti tecnologici. Questo spostamento ha conseguenze reali: naturalizza disuguaglianze, deresponsabilizza chi progetta, riduce lo spazio per alternative.

Quando un articolo dice «L'AI trasformerà il mercato del lavoro», sta usando una grammatica che nasconde i soggetti: chi sta sviluppando questi sistemi? Con quali obiettivi? Secondo quali criteri etici? Chi beneficia delle trasformazioni e chi ne subisce i costi? La frase non è falsa, l'AI trasformerà il lavoro. Ma la forma linguistica («L'AI trasformerà») rimuove l'agency umana e presenta il cambiamento come un destino inevitabile.

Ecco il punto cruciale: il tecno-determinismo non è una teoria scientifica, è una narrazione retorica. Serve a legittimare scelte presentandole come necessarie, a ridurre il dibattito pubblico a questioni tecniche, a spostare la responsabilità dagli attori umani a forze impersonali. Imparare a riconoscere quando un testo nasconde i soggetti dietro la tecnologia è il quinto e ultimo passo per sviluppare una competenza critica stabile, trasferibile a molti altri ambiti del discorso pubblico.

Quello che si dice spesso «La tecnologia è una forza della natura: si evolve da sola, noi possiamo solo adattarci.»

Presenta lo sviluppo tecnologico come un processo autonomo e inevitabile, ignorando che ogni innovazione è il risultato di scelte umane: investimenti, regolazioni, priorità etiche, modelli economici.

Quello che dice la ricerca «La tecnologia è un prodotto sociale: riflette valori, interessi e relazioni di potere delle comunità che la sviluppano e la deployano.»

Studi di sociologia della tecnologia e Science & Technology Studies (STS) mostrano che l'innovazione non segue una traiettoria lineare e inevitabile, ma è il risultato di negoziazioni, conflitti e scelte contingenti.

La domanda giusta Chi sta dietro a questa narrazione del «destino tecnologico»? Quali scelte umane, interessi economici o visioni politiche vengono nascosti dalla grammatica deterministica? E quali alternative vengono rese invisibili da questa narrazione?

Prima di continuare

Pensa a un articolo, un post o una conversazione recente in cui hai letto o sentito parlare di tecnologia usando frasi come «la tecnologia impone», «il progresso richiede», «non possiamo fermare l'innovazione». Ti è sembrato un modo efficace per comunicare, o hai avvertito una distorsione? Quali soggetti reali potrebbero essere nascosti dietro quella grammatica?

Sparizione dei soggetti, Dato iper-esteso, Futuro già scritto

Quando leggiamo un testo che parla di tecnologia e società, possiamo incontrare tre tipi distinti di affermazione deterministica. Riconoscerli è l'obiettivo operativo di questo modulo. Ciascuno ha segnali linguistici ricorrenti e implica un diverso livello di consapevolezza politica.

1 La sparizione dei soggetti

La grammatica nasconde governi, aziende o gruppi di interesse dietro soggetti inanimati: «Il digitale ci impone», «L'innovazione richiede», «La tecnologia trasforma». Questi verbi attribuiscono agency a entità astratte, rimuovendo la responsabilità dagli attori umani che prendono decisioni concrete.

Segnali da cercare: soggetti inanimati che compiono azioni («il digitale impone», «l'algoritmo decide», «la rete trasforma»); assenza di riferimenti a chi ha progettato, regolato o beneficiato del cambiamento; verbi di necessità («richiede», «impone», «obbliga») applicati a processi tecnologici.

2 Il dato iper-esteso

Ricerche limitate o contestuali vengono usate per giustificare l'inevitabilità globale: uno studio su un campione specifico diventa prova di una tendenza universale; un caso locale viene presentato come destino mondiale. Questa operazione retorica trasforma l'incertezza in certezza.

Segnali da cercare: generalizzazioni non giustificate («tutti i lavoratori», «ogni settore», «in tutto il mondo») basate su evidenze limitate; assenza di riferimenti ai limiti dello studio citato; uso di dati descrittivi per supportare conclusioni normative («accade, quindi deve accadere»).

3 Il futuro già scritto

La narrazione riduce le opzioni umane al dualismo «adattati o muori», presentando un solo scenario come inevitabile e rendendo invisibili alternative plausibili. Questa operazione retorica chiude il dibattito politico prima che inizi.

Come riconoscerla: frasi come «non c'è alternativa», «chi non si adegua resta indietro», «il futuro è questo»; assenza di riferimenti a scenari alternativi o a scelte collettive possibili; uso di metafore belliche o darwiniste («sopravvivenza», «competizione», «vincitori e vinti»).

Perché distinguerli cambia tutto

Le tre categorie portano a conclusioni pratiche molto diverse. Se riconosciamo la sparizione dei soggetti, possiamo chiedere conto a chi ha preso le decisioni. Se identifichiamo il dato iper-esteso, possiamo valutare criticamente la portata reale delle evidenze. Se rileviamo il futuro già scritto, possiamo aprire lo spazio per alternative. Un testo può mescolare i tre registri, o usarne uno solo. Riconoscere quale è in atto in ogni passaggio è il lavoro critico che questo modulo ti insegna a fare.

Le tre categorie all'opera, con testi reali

I quattro esempi che seguono mostrano le tre categorie in frasi simili a quelle che trovi davvero in articoli, libri e dichiarazioni. Per ognuno è indicata la categoria e viene spiegato esattamente dove sta il problema, o perché invece funziona bene. Leggili nell'ordine prima di passare all'esercizio.

Esempio 1, Sparizione dei soggetti
Sparizione dei soggetti
«Il digitale impone una riorganizzazione radicale del lavoro: chi non si adatta alle nuove competenze resterà escluso dal mercato.»

Questa frase attribuisce agency al «digitale» («impone»), nascondendo i soggetti reali che stanno dietro alla riorganizzazione: aziende che scelgono modelli organizzativi, governi che definiscono regolazioni, sindacati che negoziano condizioni. La grammatica deterministica («impone», «resterà escluso») presenta il cambiamento come inevitabile, rimuovendo lo spazio per alternative. Una descrizione più accurata sarebbe: «Alcune aziende stanno riorganizzando il lavoro intorno a strumenti digitali; le conseguenze per i lavoratori dipendono da scelte politiche, contrattuali e formative che possono essere negoziate».

Esempio 2, Dato iper-esteso
Dato iper-esteso
«Uno studio su 200 lavoratori della Silicon Valley mostra che l'AI aumenta la produttività. Questo dimostra che l'automazione beneficerà tutti i settori economici globali.»

Questa frase compie un salto illegittimo: da uno studio limitato (200 lavoratori, un settore specifico, un contesto geografico particolare) a una conclusione universale («tutti i settori economici globali»). Il problema non è lo studio in sé, potrebbe essere ben condotto, ma l'uso retorico dei suoi risultati per legittimare una narrazione deterministica. Una descrizione più accurata sarebbe: «Questo studio suggerisce che in certi contesti l'AI può aumentare la produttività; la generalizzazione ad altri settori richiede ricerche specifiche che tengano conto di differenze organizzative, normative e culturali».

Esempio 3, Futuro già scritto
Futuro già scritto
«Non c'è alternativa: o accettiamo l'automazione diffusa o perdiamo competitività internazionale. Il futuro del lavoro è questo, possiamo solo decidere se esserne protagonisti o vittime.»

Questa frase riduce lo spazio delle possibilità a un dualismo forzato («protagonisti o vittime») e presenta un solo scenario come inevitabile («il futuro del lavoro è questo»). I segnali sono chiari: «non c'è alternativa», «possiamo solo decidere», metafora bellica («protagonisti o vittime»). Questa narrazione chiude il dibattito politico: se il futuro è già scritto, non ha senso discutere alternative. Una descrizione più aperta sarebbe: «L'automazione pone sfide complesse; diversi paesi stanno sperimentando approcci diversi, dalla riqualificazione alla riduzione dell'orario, dalla tassazione dei robot al reddito universale, e il dibattito su quale percorso privilegiare è legittimo e necessario».

Esempio 4, Mix consapevole (riconoscimento dei soggetti + scenari multipli)
Riconoscimento dei soggetti + Scenari multipli
«Le grandi aziende tecnologiche stanno investendo massicciamente in automazione, con implicazioni diverse a seconda delle regolazioni nazionali e delle scelte sindacali. Alcuni scenari prevedono polarizzazione del lavoro, altri riqualificazione diffusa: il risultato dipenderà da decisioni politiche che possono essere influenzate dal dibattito pubblico.»

Questo è un esempio di narrazione non-deterministica. La frase esplicita i soggetti reali («grandi aziende tecnologiche», «regolazioni nazionali», «scelte sindacali»), riconosce l'incertezza degli esiti («implicazioni diverse», «alcuni scenari... altri»), e apre lo spazio per l'agency collettiva («decisioni politiche che possono essere influenzate»). Non nega la complessità del cambiamento, ma la contestualizza come prodotto di scelte umane negoziabili. È il registro più politicamente informato.

Parti neutre

Nel testo dell'esercizio ci sono anche passaggi descrittivi e di transizione che non appartengono a nessuna delle tre categorie. Riconoscerli è parte del lavoro: non ogni frase che menziona tecnologia o futuro è un'affermazione classificabile. Descrizioni tecniche neutre, definizioni, o posizioni riportate senza essere sostenute dall'autore del testo non richiedono un'etichetta.

I tre criteri da usare nell'esercizio

Prima di passare all'esercizio, rileggi le tre categorie in versione operativa, come criteri da applicare durante la lettura. Ogni parte evidenziata nel testo dell'esercizio appartiene in modo netto a una sola di esse.

La sparizione dei soggetti La grammatica nasconde governi, aziende o gruppi di interesse dietro soggetti inanimati che compiono azioni.

Segnali da cercare: soggetti inanimati che compiono azioni («il digitale impone», «l'algoritmo decide», «la rete trasforma»); assenza di riferimenti a chi ha progettato, regolato o beneficiato del cambiamento; verbi di necessità («richiede», «impone», «obbliga») applicati a processi tecnologici. Attenzione: non tutti i riferimenti alla tecnologia sono distorsivi, ma quando la grammatica rimuove sistematicamente l'agency umana, siamo nel campo della sparizione dei soggetti.

Il dato iper-esteso Ricerche limitate o contestuali vengono usate per giustificare l'inevitabilità globale.

Segnali da cercare: generalizzazioni non giustificate («tutti i lavoratori», «ogni settore», «in tutto il mondo») basate su evidenze limitate; assenza di riferimenti ai limiti dello studio citato; uso di dati descrittivi per supportare conclusioni normative («accade, quindi deve accadere»). La qualità si misura dalla proporzione tra la portata dello studio e la forza della conclusione.

Il futuro già scritto La narrazione riduce le opzioni umane al dualismo «adattati o muori», presentando un solo scenario come inevitabile.

Segnali da cercare: frasi come «non c'è alternativa», «chi non si adegua resta indietro», «il futuro è questo»; assenza di riferimenti a scenari alternativi o a scelte collettive possibili; uso di metafore belliche o darwiniste («sopravvivenza», «competizione», «vincitori e vinti»). Questa categoria non nega il cambiamento tecnologico, ma critica la chiusura retorica dello spazio politico.

Differenza dalle altre due: non riguarda l'accuratezza dei dati né la visibilità dei soggetti, ma la riduzione illegittima delle possibilità future.

Parti neutre

Nel testo dell'esercizio ci sono anche passaggi descrittivi e di transizione che non appartengono a nessuna delle tre categorie. Riconoscerli è parte del lavoro: non ogni frase che menziona tecnologia o futuro è un'affermazione classificabile.

Prima di passare all'esercizio

Qual è la differenza tra dire «l'automazione trasformerà il lavoro» (sparizione dei soggetti) e «alcune aziende stanno automatizzando processi, con effetti che dipendono da scelte regolatorie» (riconoscimento dei soggetti)? Prova a spiegare con un esempio concreto: quando la grammatica deterministica ti sembra più persuasiva e quando invece ti sembra fuorviante?

Analizza il testo: usa i pulsanti per evidenziare

Leggi il testo seguente per intero, senza usare ancora i pulsanti. Poi rileggi una seconda volta attivando un pulsante alla volta. Il testo analizza il rapporto tra narrazioni tecnologiche e agency umana, distinguendo tra determinismo retorico e descrizione critica.

Ogni parte evidenziata appartiene in modo netto a una sola categoria. Non ci sono casi volutamente ambigui.

Testo argomentativo, Interattivo
Sparizione dei soggetti
Dato iper-esteso
Futuro già scritto
Neutro (non evidenziato)

Nel dibattito pubblico sullo sviluppo tecnologico, le narrazioni deterministiche sono pervasive: presentano il cambiamento come inevitabile, nascondono i soggetti reali dietro grammatiche impersonali, riducono lo spazio per alternative. Imparare a riconoscere questi meccanismi è essenziale per partecipare consapevolmente al dibattito sul futuro.


Molti articoli affermano che «il digitale impone una trasformazione radicale delle competenze»: la grammatica attribuisce agency al «digitale», nascondendo le aziende che scelgono modelli formativi, i governi che definiscono politiche educative, i sindacati che negoziano condizioni di riqualificazione. Questa sparizione dei soggetti non è neutra: sposta la responsabilità dagli attori umani a forze impersonali, riducendo lo spazio per il dibattito politico.


Alcune narrazioni citano studi limitati per supportare conclusioni universali: una ricerca su un campione specifico di lavoratori tech viene presentata come prova che «l'AI beneficerà tutti i settori economici globali». Questo salto illegittimo trasforma l'incertezza scientifica in certezza retorica, legittimando scelte politiche come se fossero dimostrazioni empiriche.


Il problema si complica quando il determinismo linguistico si combina con la riduzione delle possibilità future.


Alcuni discorsi pubblici riducono le opzioni al dualismo «adattati o muori»: «Non c'è alternativa all'automazione diffusa; chi non si adegua resta indietro; il futuro del lavoro è questo, possiamo solo decidere se esserne protagonisti o vittime». Questa narrazione chiude il dibattito politico prima che inizi: se il futuro è già scritto, non ha senso discutere alternative, regolazioni, modelli diversi di sviluppo tecnologico.


Altre affermazioni attribuiscono decisioni strategiche a entità astratte: «L'innovazione richiede flessibilità», «La competitività impone mobilità», «Il progresso tecnologico obbliga a ripensare i diritti». In ciascun caso, la grammatica nasconde i soggetti reali: quali attori definiscono cosa sia «innovazione», «competitività» o «progresso»? Con quali criteri? A beneficio di chi?


Studi recenti mostrano che gli effetti dell'automazione variano significativamente a seconda di contesto normativo, modello organizzativo e politiche di accompagnamento (Autor et al., 2023). Questa è un'affermazione con dati nella sua forma rigorosa: cita la fonte, riconosce la variabilità degli esiti, e implicitamente apre lo spazio per scelte politiche differenziate. Non è un dato iper-esteso, perché non generalizza illegittimamente.


Al contrario, narrazioni che presentano un solo scenario come inevitabile, ignorando sperimentazioni in corso su riduzione dell'orario, reddito di base, tassazione dell'automazione, riducono artificialmente lo spazio delle possibilità. Questa è un'istanza del «futuro già scritto»: non nega la complessità del cambiamento, ma la rappresenta come un destino unico, rendendo invisibili alternative plausibili e legittime.


Nel complesso, imparare a distinguere tra sparizione dei soggetti, dato iper-esteso e futuro già scritto è il quinto e ultimo passo per sviluppare una competenza critica stabile, trasferibile a molti altri ambiti del discorso pubblico, non solo alla tecnologia.

Come usare i pulsanti

Attiva un pulsante alla volta. Leggi tutto il testo con quel filtro attivo prima di passare al successivo. Le parti non evidenziate in nessuna modalità sono neutre: descrizioni, transizioni, o posizioni riportate senza essere sostenute dall'autore del testo.

Cosa hai visto, e cosa cambia adesso

Hai lavorato su un testo costruito per essere analizzato. Le domande che seguono non hanno una risposta esatta: chiedono di ragionare sui meccanismi, non di classificare correttamente ogni frase.

Nel testo hai trovato due esempi di sparizione dei soggetti che prendono le decisioni: uno descrive il «digitale» che «impone» trasformazioni, l'altro attribuisce decisioni a «innovazione», «competitività», «progresso». Sono due facce della stessa distorsione grammaticale, o c'è una differenza importante tra nascondere soggetti dietro «il digitale» e nasconderli dietro concetti astratti? Come cambia la tua reazione a seconda della formulazione?

Quale delle tre categorie ti è risultata più difficile da riconoscere nel testo? Era difficile per la forma delle frasi, per il contenuto, o perché somigliava a un'altra categoria? Prova a capire da dove veniva l'esitazione, e se quella stessa esitazione potrebbe capitarti leggendo un articolo normale sul futuro del lavoro o sull'innovazione, fuori da questo contesto didattico.

Quando un testo esplicita i soggetti reali e riconosce la variabilità degli esiti (come nel paragrafo su Autor et al., 2023), ti sembra che questo aumenti o diminuisca la tua fiducia nella credibilità dell'autore? Perché riconoscere l'incertezza e la contingenza dovrebbe, o non dovrebbe, influenzare la tua valutazione di un'affermazione sul futuro tecnologico?

La tua osservazione finale

Pensa a un articolo, un post, un video o una conversazione che hai incontrato di recente sul tema del futuro tecnologico, o su qualsiasi tema in cui si parla di cambiamenti sociali presentati come inevitabili. Riesci a identificare almeno un passaggio in cui era presente una delle tre categorie che hai appena studiato? Descrivi quel passaggio e prova a dire quale categoria riconosci adesso, e se questa consapevolezza cambia il modo in cui valuti quell'affermazione o il modo in cui vorresti partecipare al dibattito.

Da dove vengono queste idee

Le tre categorie che hai usato in questo modulo vengono da ricerche reali su sociologia della tecnologia, Science & Technology Studies (STS) e analisi del discorso politico-tecnologico. I testi che seguono sono la base di questo modulo. Non devi leggerli tutti, ma se qualcosa ti ha incuriosito, qui puoi partire. Per chi vuole un punto di accesso immediato, il libro di Williams (2023) è particolarmente chiaro nel mostrare come il linguaggio deterministico nasconda scelte politiche.

  • Williams, R. (2023). The Myth of Inevitability: How Language Shapes Our Technological Future. MIT Press. [Analisi accessibile di come la grammatica deterministica nasconda scelte politiche e riduca lo spazio per alternative.]
  • Winner, L. (1977). Autonomous Technology: Technics-out-of-Control as a Theme in Political Thought. MIT Press. [Fondamentale per comprendere come il tecno-determinismo sia una narrazione politica, non una descrizione scientifica.]
  • Latour, B. (2005). Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford University Press. [Propone un metodo per «seguire gli attori» e rendere visibili le reti di relazioni che producono il cambiamento tecnologico.]
  • Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press. [Mostra come le scelte progettuali dietro gli algoritmi riflettano valori e interessi specifici, non neutralità tecnica.]
  • Autor, D. H., Mindell, D. A., & Reynolds, E. B. (2023). The Work of the Future: Building Better Jobs in an Age of Intelligent Machines. MIT Task Force on the Work of the Future. [Studio empirico che mostra come gli effetti dell'automazione varino a seconda di contesto normativo e scelte politiche.] https://workofthefuture.mit.edu
  • Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press. [Contestualizza l'AI come prodotto di scelte umane, materiali e politiche, non come forza autonoma.]
  • Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs. [Analizza come modelli economici specifici orientino lo sviluppo tecnologico, presentando scelte di potere come destini inevitabili.]

La tecnologia non è un destino, è una scelta. Oltre a chiederci «come ci adattiamo al futuro che la tecnologia ci impone?», domandiamoci «chi sta progettando questo futuro, con quali valori, e quali alternative stiamo rendendo invisibili con il linguaggio che usiamo?».