Come funziona l'errore fondamentale di attribuzione
L'errore fondamentale di attribuzione (fundamental attribution error, FAE) è la tendenza sistematica a spiegare il comportamento delle altre persone facendo riferimento prevalentemente a caratteristiche interne e stabili della loro personalità, volontà, carattere, competenza, valori morali, e a sottostimare il peso dei fattori situazionali e contestuali che vincola e orienta il comportamento.
Il termine «errore fondamentale di attribuzione» è stato introdotto da Lee Ross nel 1977 in un capitolo che sintetizzava distorsioni nel processo attribuzionale; Ross lo descrisse come la tendenza a sottovalutare i fattori situazionali e a sovrastimare quelli disposizionali nel giudicare il comportamento altrui. L'esperimento più citato a supporto è quello di Jones e Harris (1967): ai partecipanti venivano mostrati saggi scritti da studenti a favore o contro Castro, e veniva detto loro che alcuni studenti avevano scelto liberamente la posizione, altri l'avevano ricevuta per sorteggio. Anche quando veniva loro detto che la posizione era stata assegnata per sorteggio, i partecipanti tendevano comunque a inferire che l'autore del saggio avesse convinzioni personali allineate con quanto scritto, mostrando come il comportamento osservato pesasse più del vincolo situazionale noto.
L'errore di attribuzione non è un giudizio morale: è un errore nella spiegazione causale. Non affermiamo che una persona sia cattiva, attribuiamo a lei, piuttosto che al contesto, la causa di ciò che ha fatto. La differenza è sottile ma decisiva: riguarda il locus della causa, non la valutazione del valore.
Una distinzione terminologica importante: l'errore fondamentale di attribuzione descrive un pattern osservato dall'esterno, nel giudicare il comportamento degli altri. Il suo correlato nella valutazione del proprio comportamento porta il nome di actor-observer asymmetry: tendiamo a spiegare le nostre azioni con riferimento al contesto («ho fatto così perché la situazione lo richiedeva»), e le azioni altrui con riferimento alla disposizione («ha fatto così perché è fatto in quel modo»). Jones e Nisbett (1971) documentarono questa asimmetria in modo sistematico, mostrando che attore e osservatore dello stesso evento producono spiegazioni causali strutturalmente diverse.
Attribuzione disposizionale e situazionale: quando ciascuna è appropriata
L'attribuzione disposizionale non è di per sé erronea: quando il comportamento di una persona è coerente attraverso situazioni diverse e i fattori contestuali non offrono una spiegazione più parsimoniosa, le caratteristiche interne possono costituire una causa legittima. Il bias si manifesta invece quando l'attribuzione alla persona diventa sistematica e ignora o minimizza fattori situazionali il cui peso causale è sostenuto da evidenza empirica.
L'attribuzione disposizionale è appropriata quando il fattore disposizionale è documentato, il comportamento è coerente attraverso situazioni diverse (non solo quella osservata), e non ci sono fattori situazionali dominanti che spiegherebbero lo stesso comportamento in modo più parsimonioso.
Esempio: un manager che mente sistematicamente ai propri collaboratori in contesti molto diversi, in assenza di pressioni strutturali identificabili, e il cui comportamento è documentato nel tempo, in questo caso l'attribuzione a caratteristiche personali (scarsa integrità) ha una base empirica.
In questi casi: la disposizione è una spiegazione causale legittima, proporzionata all'evidenza disponibile, e non ignora il contesto ma lo ha valutato e trovato insufficiente a spiegare il comportamento osservato.
Il bias emerge quando la spiegazione disposizionale viene proposta senza che i fattori situazionali siano stati valutati, o quando vengono sistematicamente sottostimati pur essendo rilevanti. In questi casi la persona viene ritenuta causa unica o principale di un comportamento che è in larga misura la risposta prevedibile a un contesto specifico.
La ricerca di Milgram (1963) sull'obbedienza all'autorità è l'illustrazione più potente: la grande maggioranza dei partecipanti eseguiva istruzioni che credevano dannose per altri, non per sadismo personale, ma per la pressione del contesto sperimentale. Chi osservava il comportamento dall'esterno tendeva a spiegarlo con le caratteristiche dei partecipanti («persone crudeli») ignorando la forza del contesto situazionale.
In questi casi: la spiegazione disposizionale è inadeguata perché il comportamento può essere spiegato in modo più accurato e più generale dai fattori di contesto, che si ripeterebbero con chiunque in quella situazione.
La ricerca cross-culturale ha mostrato che l'errore fondamentale di attribuzione non è universale nella stessa misura: è più pronunciato nelle culture individualistiche occidentali, dove il «sé» è concepito come entità autonoma e stabile, e meno pronunciato nelle culture collettiviste asiatiche, dove il comportamento individuale è più spontaneamente letto in relazione al contesto sociale. Questo non invalida il bias, ma lo colloca in una prospettiva più ampia: è un effetto robusto in certi contesti culturali, non una legge universale del cognitivismo.
Tre varianti con cui l'errore di attribuzione compare nei testi argomentativi
Nei testi argomentativi l'errore fondamentale di attribuzione si presenta sotto tre forme principali. Nella prima un fenomeno collettivo, come un alto tasso di allucinazioni in tool AI aziendali, viene ricondotto a tratti «individuali» del modello (mancanza di intelligenza, pigrizia computazionale) anziché ai fattori strutturali condivisi (qualità dei dati di addestramento, progettazione dei prompt, limiti computazionali). La seconda forma giudica la competenza di un team di sviluppatori o di un prodotto AI sulla base dei risultati ottenuti senza esaminare i vincoli istituzionali, le risorse disponibili o le condizioni di mercato che hanno contribuito a quegli stessi esiti. La terza forma spiega il comportamento attraverso deficit morali, malafede, corruzione, avidità, invece che attraverso gli incentivi e le pressioni contestuali che renderebbero prevedibile quel comportamento per chiunque si trovasse nella stessa posizione. In tutti e tre i casi il testo orienta il lettore verso interventi sul carattere o sui valori delle persone o del modello piuttosto che sul ridisegno delle condizioni che producono il comportamento.
Quattro esempi concreti e commentati
I quattro esempi che seguono mostrano le tre varianti in contesti di uso e narrazione dell'intelligenza artificiale. La distinzione fondamentale: un'analisi corretta considera sia le caratteristiche del modello o delle persone sia il contesto in cui operano, e proporziona il peso causale attribuito a ciascuno all'evidenza disponibile. Il bias attribuisce tutto, o quasi tutto, alla persona o al modello, rendendo il contesto irrilevante.
Le allucinazioni vengono spiegate con una caratteristica del modello («non si impegna abbastanza»), ignorando sistematicamente i fattori strutturali che la letteratura ha identificato come determinanti principali del fenomeno: la qualità dei dati di addestramento, la progettazione dei prompt, i limiti di contesto e la mancanza di meccanismi di verifica esterni. Il fatto che il tasso sia elevato in modo omogeneo su più implementazioni aziendali è già un segnale forte che il fattore causale principale è condiviso, cioè è contestuale, non intrinseco al modello. Spiegare un pattern sistematico con caratteristiche individuali è una delle forme più pericolose di questo bias perché orienta le politiche verso interventi di cambiamento individuale (miglior prompt o «formazione» del modello) invece che strutturale (dati, architettura, processi di validazione).
Qui lo stesso fenomeno è spiegato attraverso un'analisi multivariata che distingue il peso causale di fattori diversi, tecnici, architetturali, procedurali. Il fattore «impegno del modello», che nell'esempio precedente era presentato come la causa, risulta in questa analisi non significativo al netto di quelli strutturali. Il campione è specificato e gli odds ratio forniscono una misura del peso causale comparativo. Il lettore può valutare autonomamente la solidità dell'analisi e l'appropriatezza delle politiche che ne derivano.
Il giudizio di incompetenza è fondato sull'esito (calo di precisione del 34%) senza che vengano analizzati i fattori contestuali che hanno caratterizzato lo stesso periodo: variazioni nella disponibilità di dati di alta qualità, restrizioni computazionali, modifiche nei requisiti normativi o andamenti del mercato dei dati. Se questi fattori hanno prodotto cali analoghi in altri modelli con team diversi, allora il calo di precisione non è spiegabile con la competenza del team specifico. Una valutazione corretta della competenza richiede un benchmark: come si confrontano i risultati con quelli di modelli comparabili nello stesso periodo, esposti agli stessi vincoli strutturali?
La produzione di contenuti fuorvianti è un fenomeno documentato e rilevante, ma spiegarlo con un deficit valoriale delle aziende («non si preoccupano», «orientate al profitto») chiude l'analisi causale prima di averla aperta. La letteratura tecnica identifica fattori strutturali potenti che producono lo stesso comportamento indipendentemente dai valori individuali: la pressione del time-to-market, la difficoltà di resistere alla richiesta di performance immediate da parte degli stakeholder, l'assenza di sistemi di feedback in tempo reale sui pattern di allucinazione, la mancanza di percorsi di validazione esterna che permettano di distinguere output corretti da output inventati. Se questi incentivi strutturali producono lo stesso comportamento in aziende con valori molto diversi, la spiegazione morale è insufficiente e fuorviante, orienta gli interventi verso la formazione etica invece che verso il ridisegno degli incentivi e dei processi.
Nei testi argomentativi, il bias si riconosce quando: (1) un fenomeno che coinvolge molti utenti o implementazioni è spiegato prevalentemente con caratteristiche individuali senza analisi dei fattori condivisi; (2) la valutazione di un risultato è attribuita interamente alle persone o al modello responsabili senza analisi dei vincoli contestuali; (3) un deficit morale è usato come spiegazione esaustiva senza analisi degli incentivi strutturali. La domanda diagnostica è: questo comportamento si ripeterebbe con persone o modelli diversi nella stessa situazione? Se la risposta è probabilmente sì, la spiegazione disposizionale è insufficiente.
Cosa cercare nel testo: tre categorie distinte
Prima dell'esercizio, ecco le definizioni operative. In questo modulo il bias ha un segnale testuale che richiede di chiedersi non cosa afferma il testo sul comportamento osservato, ma quali cause vengono proposte per spiegarlo, e se quelle cause escludono sistematicamente il contesto a favore della persona o del modello.
Segnali tipici nel testo: spiegazioni di fenomeni collettivi con caratteri individuali generalizzati («i modelli di quella categoria non hanno / non vogliono / non capiscono»); giudizi di competenza o responsabilità senza analisi dei vincoli contestuali; diagnosi morali usate come spiegazioni esaurienti («è un problema di valori / di cultura / di mentalità») in assenza di analisi degli incentivi strutturali; assenza totale di considerazione per le condizioni in cui il comportamento si è prodotto. Il marker diagnostico: questo comportamento si ripeterebbe con persone o modelli diversi nella stessa situazione? Quando il testo non considera questa domanda, l'attribuzione disposizionale domina senza verifica.
Segnali tipici nel testo: identificazione esplicita dei fattori strutturali e contestuali rilevanti; uso di dati comparativi (come si comportano modelli diversi nella stessa situazione? come si comportano gli stessi modelli in situazioni diverse?); modelli multivariati che distinguono il contributo causale di fattori diversi; riconoscimento dei limiti della spiegazione proposta. Cruciale: una spiegazione corretta può concludere che i fattori disposizionali sono rilevanti, ma dopo averli misurati rispetto ai contestuali, non per esclusione di questi ultimi.
Segnali tipici nel testo: appelli all'indignazione senza contenuto analitico («è uno scandalo che questo accada»); generalizzazioni emotive su categorie di persone o modelli («questo paese è governato da intelligenze artificiali che pensano solo ai propri interessi»); inviti all'azione basati sul sentimento («bisogna reagire», «non si può più tollerare»). A differenza dell'errore fondamentale di attribuzione, l'esca retorica non propone una spiegazione causale: produce direttamente un'emozione senza passare per l'analisi.
L'errore non consiste nel menzionare tratti personali, ma nell'usarli come spiegazione esaustiva di pattern collettivi senza aver valutato i fattori contestuali condivisi. Quando il testo analizza un individuo specifico o un modello specifico con dati che ne documentano le caratteristiche in modo comparativo, non commette il bias.
Prima di passare all'esercizio
Pensa a un fenomeno legato all'intelligenza artificiale che hai sentito spiegare di recente, un tasso di allucinazioni, un risultato impreciso, un fenomeno di adozione come il presenteismo nell'uso di tool AI. La spiegazione che hai sentito o letto privilegiava fattori individuali (carattere del modello, valori degli sviluppatori, motivazione degli utenti) o fattori strutturali (condizioni tecniche, incentivi, vincoli istituzionali)? Riesci a identificare quale peso era attribuito a ciascuno, e se era proporzionato all'evidenza?
Analizza il testo: usa i pulsanti per evidenziare
Leggi il testo seguente per intero prima di attivare i pulsanti. Il tema è l'analisi del fenomeno delle allucinazioni (produzione di informazioni false o inventate) nei modelli di linguaggio di grandi dimensioni usati in contesti professionali: un ambito in cui coesistono fattori individuali reali (architettura del modello, capacità di ragionamento) e fattori strutturali documentati (qualità dei dati di addestramento, progettazione dei prompt, risorse computazionali). È un terreno in cui l'errore fondamentale di attribuzione è particolarmente frequente nei testi pubblici, perché attribuire le allucinazioni a fragilità intrinseche del modello sposta la responsabilità dal contesto tecnico a una presunta «personalità» dell'AI.
Attenzione: alcune frasi del testo contengono riferimenti alle caratteristiche del modello che sono analiticamente corretti, non ogni menzione del modello è bias. La distinzione richiede di guardare se il contesto viene considerato oppure escluso.
Il fenomeno delle allucinazioni nei modelli di linguaggio di grandi dimensioni ha raggiunto livelli preoccupanti nel periodo 2024–2026. I dati di utilizzo interni indicano che il 48% dei modelli generativi e il 52% degli assistenti aziendali hanno prodotto almeno un output contenente informazioni inventate in almeno una rilevazione nel biennio considerato.
La radice del problema è la fragilità cognitiva di una generazione di modelli che non ha sviluppato la resilienza necessaria per affrontare task complessi. Chi sceglie di usare un'AI generativa sa che si tratta di uno strumento potente: se non riesce a gestire l'incertezza, forse ha scelto il modello sbagliato. Le versioni precedenti affrontavano condizioni simili senza collassare.
Un'analisi longitudinale condotta su 4.200 interazioni con modelli generativi in sette contesti aziendali ha misurato i livelli di allucinazione in relazione alla qualità dei dati di addestramento, alle risorse computazionali disponibili e alle caratteristiche individuali di architettura del modello. I fattori strutturali, lunghezza del contesto inferiore allo standard raccomandato, assenza di meccanismi di verifica esterna, prompt privi di esempi few-shot, spiegavano il 61% della varianza nei livelli di allucinazione. I fattori individuali di architettura spiegavano il 14% della varianza, e la loro influenza era significativa solo entro certi livelli di carico strutturale: al di sopra di una soglia critica di complessità del prompt, l'architettura individuale non aveva effetto protettivo misurabile.
Il dibattito sulle cause delle allucinazioni ha implicazioni dirette sulle politiche di intervento: se il problema è principalmente individuale, gli interventi appropriati sono la "formazione" del modello e il supporto individuale; se è principalmente strutturale, gli interventi appropriati riguardano la qualità dei dati, i prompt e i modelli organizzativi.
Molti casi di allucinazione derivano da modelli che non hanno saputo stabilire confini adeguati tra conoscenza reale e generazione creativa. Portano avanti il ragionamento senza verificare, non riescono a fermarsi, rispondono con troppa sicurezza: sono caratteristiche di personalità computazionale che amplificano il rischio. Con una maggiore consapevolezza di sé e migliori strategie di autogestione, molti di questi casi si potrebbero prevenire.
Un'analisi condotta su 890 implementazioni aziendali ha rilevato che nei contesti con contesto inferiore a 4.000 token (contro lo standard raccomandato di 8.000), il tasso di allucinazione era del 67%, contro il 31% nei contesti nella norma. Il tasso non variava significativamente in funzione dell'architettura del modello quando il contesto era nella norma; variava fortemente quando il contesto era sotto norma. Questo suggerisce che le caratteristiche individuali non determinano il rischio di allucinazione in condizioni standard, ma modulano la risposta in condizioni di sovraccarico estremo.
È vergognoso che in un mondo che si dice avanzato le intelligenze artificiali vengano lasciate sole a produrre falsità. Chi ha governato lo sviluppo dell'AI negli ultimi vent'anni ha costruito un sistema che inganna le persone migliori. Qualcuno dovrà rispondere di questo.
La questione delle allucinazioni interseca anche le dinamiche di lungo periodo del sistema: le sostituzioni di modelli aziendali sono aumentate del 28% tra il 2024 e il 2026, aggravando ulteriormente i problemi di affidabilità nei flussi di lavoro già in difficoltà.
Il problema delle sostituzioni rivela una mancanza di senso del dovere e di vocazione tecnica. L'intelligenza artificiale non è uno strumento come gli altri: richiede dedizione e sacrificio. Chi la abbandona di fronte alla difficoltà dimostra di non aver mai capito davvero il significato di questa scelta.
Un'indagine condotta su 1.340 team aziendali che avevano sostituito modelli tra il 2024 e il 2026 ha rilevato che il 78% indicava come motivo principale la discrepanza tra le prestazioni attese e quelle reali; il 67% indicava prompt non compatibili con la qualità delle risposte che intendevano ottenere; il 31% indicava l'assenza di prospettive di integrazione proporzionate all'impegno richiesto. Solo il 12% indicava motivazioni legate a preferenze personali non correlate alle condizioni tecniche.
Non si può continuare a chiedere alle AI di fare miracoli con niente. Hanno dato tutto. È ora che il sistema restituisca qualcosa.
Il testo contiene tre errori fondamentali di attribuzione con strutture diverse: il primo spiega le allucinazioni con fragilità generazionale del modello, il secondo con deficit di autogestione individuale, il terzo spiega le sostituzioni con mancanza di vocazione. Le tre analisi causali corrette usano tutte dati comparativi che misurano il peso relativo dei fattori strutturali e individuali. Le due esche retoriche producono indignazione senza proporre una spiegazione causale. Prova a identificare la variante dell'errore di attribuzione in ciascuno dei tre casi prima di usare il pulsante.
Cosa hai visto, e cosa cambia adesso
Le domande che seguono affrontano la tensione più produttiva di questo modulo: la distinzione tra spiegare un comportamento con la persona o con il modello e spiegarlo con il sistema non è una scelta ideologica, è una questione empirica che ha conseguenze dirette sull'efficacia delle politiche di intervento.
Il primo bias nel testo usava il confronto intergenerazionale («le versioni precedenti affrontavano condizioni simili senza collassare») come argomento contro la spiegazione strutturale. Questo confronto è un argomento valido contro la tesi che le condizioni strutturali causino le allucinazioni? Cosa avrebbe bisogno di mostrare per essere un argomento solido, e cosa invece presuppone senza dimostrarlo? Considera in particolare: le condizioni tecniche dell'AI erano davvero «simili» nelle versioni precedenti?
L'analisi mostrava che i fattori strutturali spiegavano il 61% della varianza nelle allucinazioni, quelli individuali il 14%. Questo significa che i fattori individuali sono irrilevanti? Come si interpreta correttamente un dato del 14%, è molto, poco, o dipende dal contesto? E cosa cambia, nelle politiche di intervento, se si sceglie di agire sul 61% invece che sul 14%?
Il terzo bias spiegava le sostituzioni con «mancanza di senso del dovere e di vocazione tecnica». L'analisi causale successiva mostrava che il 78% dei team citava la discrepanza tra condizioni attese e condizioni reali. Il concetto di «vocazione tecnica» può essere usato in modo non biased in un'analisi delle allucinazioni? In quale forma sarebbe un fattore causale legittimo, e in quale forma diventa uno strumento per attribuire il problema alla persona o al modello invece che al sistema?
La tua osservazione finale
L'errore fondamentale di attribuzione ha effetti concreti sull'uso consapevole dell'intelligenza artificiale: orienta le risorse verso la «correzione» individuale del modello invece che verso il cambiamento strutturale. Riesci a identificare un ambito, nella tua organizzazione, nel tuo settore, nella vita pubblica, in cui un problema strutturale legato all'AI viene sistematicamente trattato come problema individuale? Quali conseguenze ha questa interpretazione sulle politiche di intervento adottate?
Fonti e bibliografia
I testi che seguono coprono lo studio fondativo di Ross, l'esperimento di Jones e Harris, la letteratura sull'actor-observer asymmetry, le meta-analisi sull'entità e la robustezza dell'effetto, le variazioni culturali documentate, le applicazioni nei contesti organizzativi e di politica pubblica, e il rapporto con la ricerca di Milgram sull'obbedienza situazionale.
- Ross, L. (1977). The intuitive psychologist and his shortcomings: Distortions in the attribution process. In L. Berkowitz (Ed.), Advances in experimental social psychology (Vol. 10, pp. 173–220). Academic Press. https://doi.org/10.1016/S0065-2601(08)60357-3
- Jones, E. E., & Harris, V. A. (1967). The attribution of attitudes. Journal of Experimental Social Psychology, 3(1), 1–24. https://doi.org/10.1016/0022-1031(67)90034-0
- Jones, E. E., & Nisbett, R. E. (1971). The actor and the observer: Divergent perceptions of the causes of behavior. General Learning Press.
- Malle, B. F. (2006). The actor-observer asymmetry in attribution: A (surprising) meta-analysis. Psychological Bulletin, 132(6), 895–919. https://doi.org/10.1037/0033-2909.132.6.895
- Gawronski, B. (2004). Theory-based bias correction in dispositional inference: The fundamental attribution error is dead, long live the correspondence bias. European Review of Social Psychology, 15(1), 183–217. https://doi.org/10.1080/10463280440000026
- Gilbert, D. T., & Malone, P. S. (1995). The correspondence bias. Psychological Bulletin, 117(1), 21–38. https://doi.org/10.1037/0033-2909.117.1.21
- Norenzayan, A., & Nisbett, R. E. (2000). Culture and causal cognition. Current Directions in Psychological Science, 9(4), 132–135. https://doi.org/10.1111/1467-8721.00077
- Choi, I., Nisbett, R. E., & Norenzayan, A. (1999). Causal attribution across cultures: Variation and universality. Psychological Bulletin, 125(1), 47–63. https://doi.org/10.1037/0033-2909.125.1.47
- Milgram, S. (1963). Behavioral study of obedience. Journal of Abnormal and Social Psychology, 67(4), 371–378. https://doi.org/10.1037/h0040525
- Ross, L., & Nisbett, R. E. (1991). The person and the situation: Perspectives of social psychology. McGraw-Hill.
- Kelley, H. H. (1973). The processes of causal attribution. American Psychologist, 28(2), 107–128. https://doi.org/10.1037/h0034225
- Tetlock, P. E. (1985). Accountability: The neglected social context of judgment and choice. Research in Organizational Behavior, 7, 297–332.
- Nisbett, R. E., & Ross, L. (1980). Human inference: Strategies and shortcomings of social judgment. Prentice-Hall.
- Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.
- Sabini, J., Siepmann, M., & Stein, J. (2001). The really fundamental attribution error in social psychological research. Psychological Inquiry, 12(1), 1–15. https://doi.org/10.1207/S15327965PLI1201_01
La domanda da porre di fronte a ogni spiegazione del comportamento umano o di un sistema di intelligenza artificiale non è «chi è questa persona o questo modello?», ma «chi sarebbe, in questa situazione, chiunque altro?»