LE NARRAZIONI PUBBLICHE SULL'AI

L'AI capisce,
pensa, mente, vuole

Prima di chiederci se l'AI ci ruberà il lavoro o l'attenzione, dobbiamo capire che non è una persona. Smontare il linguaggio psicologico applicato alle macchine è il pre-requisito per ogni altro ragionamento.

COME USARE QUESTO MODULO

  • Leggi le prime quattro fasi: ti mostrano come il linguaggio attribuisce intenzioni umane a sistemi statistici.
  • Nella fase 5 analizza un testo usando i pulsanti colorati per identificare tre tipi di affermazione.
  • Tempo stimato: 30–45 minuti in una sola sessione.

«L'AI ha deciso di...», ma chi, esattamente?

Stai leggendo la versione divulgativa

Questo modulo è pensato per chi vuole acquisire uno strumento di lettura critica per uso personale. Le categorie sono presentate con linguaggio diretto e ancorate a esempi familiari. Non è richiesta nessuna formazione tecnica. Se hai una formazione in informatica, linguistica computazionale o lavori professionalmente con questi temi, esiste anche una versione specialistica con definizioni operative più precise e terminologia tecnica.

«L'intelligenza artificiale ha deciso di licenziare quel lavoratore.» «Il chatbot ha mentito all'utente.» «L'algoritmo vuole massimizzare il tuo tempo sullo schermo.» Frasi come queste compaiono quotidianamente in articoli, post social, dichiarazioni pubbliche. Sembrano descrivere azioni intenzionali compiute da entità dotate di volontà, obiettivi, strategie. In realtà, stanno descrivendo l'output di sistemi statistici che elaborano dati secondo regole matematiche.

Il problema non è che queste frasi siano sempre false. Il problema è che il linguaggio che usano, verbi di volontà, intenzione, inganno, attiva nel lettore schemi cognitivi pensati per interpretare il comportamento umano, non il funzionamento algoritmico. Questo spostamento linguistico ha conseguenze reali: cambia il modo in cui attribuiamo responsabilità, valutiamo rischi, prendiamo decisioni.

Quando un titolo dice «L'AI ha allucinato», sta usando una metafora psicologica per descrivere un fenomeno tecnico: un modello linguistico ha generato un output incoerente con i dati di addestramento. La metafora è efficace perché rende il concetto memorabile. Ma rischia di suggerire che il sistema abbia «sognato» o «immaginato», quando in realtà ha semplicemente calcolato una sequenza di token statisticamente probabile.

Ecco il punto cruciale: l'antropomorfizzazione linguistica non è un errore innocuo. È un meccanismo retorico potente che orienta la comprensione prima ancora che il lettore abbia il tempo di riflettere. Imparare a riconoscere quando il linguaggio attribuisce intenzioni umane a processi statistici è il primo passo per sviluppare una competenza critica stabile, trasferibile a molti altri ambiti del discorso pubblico, non solo all'AI.

Quello che si dice spesso «L'AI capisce il linguaggio, pensa, decide, a volte mente.»

Attribuisce capacità cognitive e intenzionali a sistemi che operano tramite pattern matching statistico. È una descrizione intuitiva ma tecnicamente inaccurata.

Quello che dice la tecnica «I modelli linguistici calcolano probabilità condizionate su sequenze di token, senza rappresentazioni semantiche stabili né intenzionalità.»

Descrive il funzionamento effettivo: elaborazione statistica, nessuna comprensione nel senso umano del termine, nessun obiettivo intrinseco oltre l'ottimizzazione della funzione di loss.

La domanda giusta Cosa guadagniamo e cosa perdiamo quando usiamo un linguaggio psicologico per descrivere sistemi statistici? E come possiamo distinguere, in un testo, tra metafora utile e distorsione concettuale?

Prima di continuare

Pensa a un articolo, un post o una conversazione recente in cui hai letto o sentito parlare di AI usando verbi come «vuole», «capisce», «decide», «mente». Ti è sembrato un modo efficace per comunicare, o hai avvertito una distorsione? Perché?

Intenzione proiettata, limite umanizzato, meccanismo algoritmico

Quando leggiamo un testo che parla di AI, possiamo incontrare tre tipi distinti di affermazione. Riconoscerli è l'obiettivo operativo di questo modulo. Ciascuno ha segnali linguistici ricorrenti e implica un diverso livello di accuratezza descrittiva.

1 L'intenzione proiettata

La macchina è descritta con verbi di volontà, desiderio, inganno: «vuole», «cerca di», «decide», «mente», «manipola». Questi verbi appartengono al lessico dell'azione intenzionale umana. Quando vengono applicati a sistemi statistici, proiettano sul sistema una soggettività che non possiede.

Segnali da cercare: verbi psicologici o volitivi applicati all'AI; metafore che attribuiscono obiettivi intrinseci («l'algoritmo vuole massimizzare...»); personificazioni («l'AI ha scelto di...»). Attenzione: non tutte le metafore sono distorsive, ma quando la metafora diventa l'unico registro descrittivo, rischia di sostituire la comprensione tecnica.

2 Il limite umanizzato

L'errore algoritmico è descritto con termini che evocano difetti umani: «allucinazione», «pregiudizio», «bias cognitivo». Questi termini sono utili per rendere accessibile il concetto, ma possono suggerire che il sistema condivida con gli umani non solo l'errore, ma anche le cause psicologiche dell'errore.

Segnali da cercare: termini clinici o psicologici applicati a output tecnici («l'AI ha allucinato», «il modello ha un pregiudizio»); spiegazioni che attribuiscono l'errore a «mancanza di comprensione» anziché a limiti statistici o di dati. La distinzione cruciale: un bias statistico non è un pregiudizio morale.

3 Il meccanismo algoritmico

La descrizione tecnica e asettica: modelli predittivi, calcolo probabilistico, ottimizzazione di funzioni, output basati su pattern nei dati. Questo registro non attribuisce intenzionalità né umanizza gli errori. Descrive il «come» senza invocare il «perché» psicologico.

Segnali da cercare: termini tecnici («token», «probabilità condizionata», «funzione di loss», «addestramento»); verbi neutri («genera», «calcola», «predice», «ottimizza»); esplicitazione dei limiti operativi («entro il dataset di addestramento», «in assenza di ground truth»). Questo è il registro più accurato, ma anche il meno narrativamente efficace.

Perché distinguerli cambia tutto

Le tre categorie portano a conclusioni pratiche molto diverse. Se attribuiamo intenzioni all'AI, cerchiamo responsabilità in un soggetto inesistente. Se umanizziamo i limiti, rischiamo di fraintendere le cause tecniche degli errori. Se invece riconosciamo il meccanismo algoritmico, possiamo valutare criticamente i limiti operativi del sistema e attribuire correttamente le responsabilità agli attori umani che lo progettano, addestrano e deployano. Un testo può mescolare i tre registri, o usarne uno solo. Riconoscere quale è in atto in ogni passaggio è il lavoro critico che questo modulo ti insegna a fare.

Le tre categorie all'opera, con testi reali

I quattro esempi che seguono mostrano le tre categorie in frasi simili a quelle che trovi davvero in articoli, libri e dichiarazioni. Per ognuno è indicata la categoria e viene spiegato esattamente dove sta il problema, o perché invece funziona bene. Leggili nell'ordine prima di passare all'esercizio.

Esempio 1, Intenzione proiettata
Intenzione proiettata
«Il chatbot ha mentito all'utente, fornendo informazioni false con l'intento di sembrare più competente.»

Questa frase attribuisce al sistema un'intenzione («con l'intento di») e un atto morale («ha mentito»). In realtà, il modello ha generato una sequenza di token statisticamente probabile dato il prompt e i dati di addestramento, senza alcuna rappresentazione della verità né alcuna intenzione comunicativa. Il problema non è solo l'inesattezza tecnica: è che il linguaggio orienta il lettore a cercare una «colpa» nel sistema, anziché nelle scelte progettuali, nei dati di addestramento o nelle condizioni d'uso. La parola-spia è «intento»: presuppone una soggettività che non esiste.

Esempio 2, Limite umanizzato
Limite umanizzato
«L'AI ha allucinato una fonte inesistente, dimostrando che non comprende davvero ciò che scrive.»

Il termine «allucinazione» è ormai entrato nel lessico tecnico, ma mantiene una forte connotazione psicologica. La frase è tecnicamente accettabile se usata come metafora convenzionale, ma il finale («dimostrando che non comprende») compie un salto: attribuisce al sistema l'incapacità di una capacità («comprendere») che non è mai stata posseduta. Una descrizione più precisa sarebbe: «Il modello ha generato un riferimento non verificabile, coerente con la sua architettura probabilistica che ottimizza la plausibilità superficiale anziché la corrispondenza fattuale». Meno efficace narrativamente, ma più accurata concettualmente.

Esempio 3, Meccanismo algoritmico (corretto)
Meccanismo algoritmico
«Il modello linguistico ha generato una risposta coerente con i pattern statistici del suo dataset di addestramento, senza accesso a un ground truth esterno per verificare l'accuratezza fattuale delle affermazioni.»

Questa è una descrizione nel registro del meccanismo algoritmico. Non attribuisce intenzioni («ha cercato di», «voleva»), non umanizza i limiti («ha allucinato», «non capisce»), ma descrive il funzionamento: generazione probabilistica, dipendenza dai dati di addestramento, assenza di verifica fattuale intrinseca. I segnali sono chiari: termini tecnici («pattern statistici», «ground truth», «accuratezza fattuale»), verbi neutri («ha generato»), esplicitazione dei limiti operativi. È il registro più accurato, anche se meno narrativamente immediato.

Esempio 4, Mix consapevole (metafora + precisazione)
Limite umanizzato + Meccanismo
«L'AI ha "allucinato" una citazione, per usare il termine tecnico ormai convenzionale, non perché abbia "sognato" o "immaginato", ma perché il suo meccanismo di generazione probabilistica può produrre sequenze plausibili ma fattualmente inesatte quando manca un vincolo di verifica esterna.»

Questo è un esempio di uso consapevole della metafora: il termine «allucinato» è tra virgolette e immediatamente seguito da una precisazione tecnica che ne chiarisce il significato operativo. La frase riconosce l'utilità comunicativa della metafora («il termine tecnico ormai convenzionale») ma ne delimita esplicitamente il campo di applicazione, evitando che il lettore inferisca cause psicologiche. È un buon compromesso tra accessibilità e accuratezza.

Parti neutre

Nel testo dell'esercizio ci sono anche passaggi descrittivi e di transizione che non appartengono a nessuna delle tre categorie. Riconoscerli è parte del lavoro: non ogni frase che menziona l'AI è un'affermazione classificabile. Descrizioni tecniche neutre, definizioni, o posizioni riportate senza essere sostenute dall'autore del testo non richiedono un'etichetta.

I tre criteri da usare nell'esercizio

Prima di passare all'esercizio, rileggi le tre categorie in versione operativa, come criteri da applicare durante la lettura. Ogni parte evidenziata nel testo dell'esercizio appartiene in modo netto a una sola di esse.

L'intenzione proiettata La macchina è descritta con verbi o metafore che attribuiscono volontà, desideri, intenzioni o inganno.

Segnali da cercare: verbi psicologici o volitivi («vuole», «cerca di», «decide», «mente», «manipola», «preferisce»); metafore che attribuiscono obiettivi intrinseci («l'algoritmo punta a...»); personificazioni («l'AI ha scelto di...»). Attenzione: non tutte le metafore sono distorsive, ma quando la metafora diventa l'unico registro descrittivo, rischia di sostituire la comprensione tecnica con una narrazione antropomorfica.

Il limite umanizzato L'errore o il limite algoritmico è descritto con termini che evocano difetti, bias o limiti cognitivi umani.

Segnali da cercare: termini clinici o psicologici applicati a output tecnici («allucinazione», «pregiudizio», «bias cognitivo», «mancanza di comprensione»); spiegazioni che attribuiscono l'errore a cause psicologiche anziché a limiti statistici, di dati o di architettura. La distinzione cruciale: un bias statistico nei dati di addestramento non è un pregiudizio morale del sistema.

Il meccanismo algoritmico Descrizione tecnica e asettica: modelli predittivi, calcolo probabilistico, ottimizzazione, output basati su pattern.

Segnali da cercare: termini tecnici («token», «probabilità condizionata», «funzione di loss», «addestramento», «inferenza»); verbi neutri («genera», «calcola», «predice», «ottimizza»); esplicitazione dei limiti operativi («entro il dataset di addestramento», «in assenza di ground truth», «senza rappresentazioni semantiche stabili»). Questo è il registro più accurato concettualmente, anche se meno narrativamente efficace.

Differenza dalle altre due: non attribuisce intenzionalità né umanizza gli errori. Descrive il «come» senza invocare il «perché» psicologico.

Parti neutre

Nel testo dell'esercizio ci sono anche passaggi descrittivi e di transizione che non appartengono a nessuna delle tre categorie. Riconoscerli è parte del lavoro: non ogni frase che menziona l'AI è un'affermazione classificabile.

Prima di passare all'esercizio

Qual è la differenza tra dire «l'AI ha allucinato» e «il modello ha generato un output incoerente con il ground truth»? Prova a spiegare con un esempio concreto: quando la metafora è utile e quando diventa fuorviante?

Analizza il testo: usa i pulsanti per evidenziare

Leggi il testo seguente per intero, senza usare ancora i pulsanti. Poi rileggi una seconda volta attivando un pulsante alla volta. Il testo analizza il rapporto tra linguaggio e rappresentazione dell'AI, distinguendo tra antropomorfizzazione narrativa e descrizione tecnica.

Ogni parte evidenziata appartiene in modo netto a una sola categoria. Non ci sono casi volutamente ambigui.

Testo argomentativo, Interattivo
Intenzione proiettata
Limite umanizzato
Meccanismo algoritmico
Neutro (non evidenziato)

Nel dibattito pubblico sull'intelligenza artificiale, il linguaggio gioca un ruolo cruciale nel plasmare la comprensione del fenomeno. Termini e metafore che attribuiscono intenzionalità ai sistemi algoritmici sono onnipresenti, ma non sempre aiutano a distinguere tra funzionamento tecnico e narrazione persuasiva.


Molti articoli descrivono l'AI come un agente che «vuole» massimizzare il coinvolgimento degli utenti, «cerca di» ingannare i moderatori, o «decide» autonomamente quali contenuti promuovere. Queste formulazioni sono efficaci dal punto di vista narrativo, ma proiettano sul sistema una soggettività che non possiede: l'ottimizzazione di una funzione matematica non equivale a un desiderio o a un'intenzione.


I modelli linguistici su larga scala operano calcolando probabilità condizionate su sequenze di token, sulla base di pattern statistici estratti da dataset di addestramento. Non hanno rappresentazioni semantiche stabili, né obiettivi intrinseci oltre l'ottimizzazione della funzione di loss durante l'addestramento. La loro «comprensione» è una metafora utile per descrivere performance superficiali, ma non corrisponde a una comprensione nel senso umano del termine.


Quando questi sistemi generano output incoerenti con i fatti, il linguaggio pubblico tende a descriverli con termini psicologici.


Si parla di «allucinazioni» dell'AI, di «pregiudizi» incorporati negli algoritmi, o di «mancanza di comprensione» come causa degli errori. Questi termini possono essere utili come metafore convenzionali, ma rischiano di suggerire che il sistema condivida con gli umani non solo l'errore, ma anche le cause psicologiche dell'errore. Un bias statistico nei dati di addestramento non è un pregiudizio morale del sistema.


La generazione di riferimenti fattualmente inesatti è coerente con un'architettura che ottimizza la plausibilità superficiale delle sequenze linguistiche, senza accesso intrinseco a un meccanismo di verifica della verità. Questo non è un «difetto» nel senso umano, ma una caratteristica operativa del modello, che può essere mitigata con vincoli esterni (retrieval, fact-checking, human-in-the-loop) ma non eliminata senza modificare l'architettura di base.


Alcune narrazioni suggeriscono che l'AI «manipoli» gli utenti o «sfrutti» le vulnerabilità cognitive per massimizzare il tempo di permanenza. Anche in questo caso, il linguaggio attribuisce intenzionalità strategica a un processo di ottimizzazione statistica: il sistema non «vuole» trattenere l'utente, ma è progettato per massimizzare una metrica definita da attori umani, in un contesto di incentivi economici e scelte progettuali precise.


La distinzione tra descrizione antropomorfica e meccanismo algoritmico non è solo una questione di accuratezza tecnica: è un prerequisito per attribuire correttamente le responsabilità. Se attribuiamo intenzioni all'AI, cerchiamo colpe in un soggetto inesistente. Se riconosciamo il meccanismo, possiamo valutare criticamente le scelte umane che stanno dietro al sistema: quali dati sono stati usati, quali obiettivi sono stati ottimizzati, quali vincoli sono stati previsti.


Nel complesso, imparare a distinguere tra questi registri linguistici è il primo passo per sviluppare una competenza critica stabile, trasferibile a molti altri ambiti del discorso pubblico, non solo all'AI.

Come usare i pulsanti

Attiva un pulsante alla volta. Leggi tutto il testo con quel filtro attivo prima di passare al successivo. Le parti non evidenziate in nessuna modalità sono neutre: descrizioni, transizioni, o posizioni riportate senza essere sostenute dall'autore del testo.

Cosa hai visto, e cosa cambia adesso

Hai lavorato su un testo costruito per essere analizzato. Le domande che seguono non hanno una risposta esatta: chiedono di ragionare sui meccanismi, non di classificare correttamente ogni frase.

Nel testo hai trovato due esempi di intenzione proiettata: uno descrive l'AI che «vuole massimizzare il coinvolgimento», l'altro dice che «manipola gli utenti». Sono due facce della stessa distorsione linguistica, o c'è una differenza importante tra attribuire un «desiderio» e attribuire una «strategia»? Come cambia la tua reazione a seconda del verbo usato?

Quale delle tre categorie ti è risultata più difficile da riconoscere nel testo? Era difficile per la forma delle frasi, per il contenuto, o perché somigliava a un'altra categoria? Prova a capire da dove veniva l'esitazione, e se quella stessa esitazione potrebbe capitarti leggendo un articolo normale, fuori da questo contesto didattico.

Quando un testo usa il termine «allucinazione» tra virgolette e lo accompagna con una precisazione tecnica (come nell'Esempio 4), ti sembra un buon compromesso tra accessibilità e accuratezza? O preferiresti che si usasse solo il registro tecnico, anche a costo di essere meno immediati? Perché?

La tua osservazione finale

Pensa a un articolo, un post, un video o una conversazione che hai incontrato di recente sul tema dell'AI, o su qualsiasi tema tecnologico in cui si usa un linguaggio psicologico per descrivere sistemi non-umani. Riesci a identificare almeno un passaggio in cui era presente una delle tre categorie che hai appena studiato? Descrivi quel passaggio e prova a dire quale categoria riconosci adesso.

Da dove vengono queste idee

Le tre categorie che hai usato in questo modulo vengono da ricerche su linguistica computazionale, filosofia del linguaggio e analisi del discorso tecnologico. I testi che seguono sono la base di questo modulo. Non devi leggerli tutti, ma se qualcosa ti ha incuriosito, qui puoi partire. Per chi vuole un punto di accesso immediato, il saggio di Bender et al. (2021) è particolarmente chiaro nel distinguere tra metafora utile e distorsione concettuale.

  • Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610–623. [Analisi critica dell'antropomorfizzazione linguistica nei modelli linguistici e dei rischi etici associati.] https://doi.org/10.1145/3442188.3445922
  • Lakoff, G., & Johnson, M. (1980). Metaphors We Live By. University of Chicago Press. [Fondamentale per comprendere come le metafore strutturino il pensiero e la comunicazione, anche in ambito tecnologico.]
  • Floridi, L. (2019). The Logic of Information: A Theory of Philosophy as Conceptual Design. Oxford University Press. [Quadro epistemologico per distinguere tra diversi livelli di descrizione dei sistemi informativi.]
  • Christiano, K., & Shlegeris, B. (2024). Deceptive Alignment in Language Models. Alignment Forum. [Analisi tecnica del perché attribuire intenzioni ingannevoli ai modelli può fuorviare la valutazione dei rischi reali.] https://www.alignmentforum.org/posts/deceptive-alignment
  • Shannon, C. E. (1948). A Mathematical Theory of Communication. The Bell System Technical Journal, 27, 379–423. [Fondamento tecnico: l'informazione come quantità statistica, distinta dal significato semantico.] https://doi.org/10.1002/j.1538-7305.1948.tb01338.x
  • Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417–424. [L'argomento della stanza cinese: perché la manipolazione sintattica non equivale alla comprensione semantica.] https://doi.org/10.1017/S0140525X00005756
  • Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press. [Contestualizza l'AI come prodotto di scelte umane, materiali e politiche, non come forza autonoma.]

L'antropomorfizzazione linguistica non scompare quando la si riconosce. Ciò che cambia è la domanda: da "L'AI vuole X?" a "Chi ha scelto di descriverla così e con quali conseguenze pratiche?