Come funziona il senno di poi
L'hindsight bias, in italiano spesso reso come bias del senno di poi, è la tendenza, dopo aver conosciuto il risultato di un evento, a sovrastimare quanto quel risultato fosse prevedibile in anticipo. Sapere come è andata a finire altera la nostra ricostruzione di quanto sembrava probabile prima che accadesse.
Baruch Fischhoff descrisse il fenomeno nel 1975. Nei suoi esperimenti i partecipanti, dopo aver appreso l'esito di eventi storici reali, ricordavano le proprie previsioni precedenti come molto più accurate di quanto fossero state. La distorsione non veniva percepita come tale. Chi la subiva era convinto di ricordare correttamente.
Il senno di poi non è falsità o ipocrisia: è una ricostruzione involontaria della memoria. Il cervello non archivia le credenze passate come fotografie immutabili. Le rielabora continuamente alla luce delle nuove informazioni. Una volta che sappiamo il risultato, quella conoscenza contamina retroattivamente la nostra percezione di quanto fosse incerto prima.
Fischhoff identificò tre componenti del fenomeno che possono operare separatamente o insieme. La memoria distorta delle proprie previsioni passate fa ricordare di aver previsto correttamente più di quanto si fosse fatto. La percezione di inevitabilità rende l'evento verificatosi il più probabile tra quelli possibili. Il giudizio sulla competenza altrui porta a valutare come incompetente o negligente chi non aveva previsto il risultato, applicando il sapere retrospettivo alle decisioni prese nell'incertezza.
Quest'ultima componente è la più rilevante per l'analisi dei testi argomentativi: è la forma con cui l'hindsight bias entra nei giudizi pubblici su decisioni e responsabilità.
Quando imparare dall'esperienza è utile, e quando il senno di poi distorce
Il meccanismo alla base dell'hindsight bias ha una funzione adattiva riconoscibile. Il problema non è imparare dall'esperienza: è applicare retroattivamente il sapere acquisito alle decisioni prese nell'incertezza originale.
Riconoscere che un evento ha rivelato segnali che in futuro sarà utile monitorare è un processo di apprendimento genuino. Un team di sviluppatori che, dopo un fallimento di un modello, identifica i segnali che avrebbe dovuto pesare diversamente, sta usando l'esito per migliorare il proprio schema di valutazione, non per condannare la decisione passata come ovviamente sbagliata.
Allo stesso modo, un'organizzazione che analizza un fallimento per costruire procedure migliori sta usando la conoscenza del risultato in modo costruttivo. L'apprendimento genuino riconosce che i segnali erano ambigui al momento della decisione, e si chiede come migliorare la valutazione dell'ambiguità, non come avrebbero dovuto essere ignorati i segnali contrari che pure esistevano.
Il bias emerge quando la conoscenza del risultato viene usata per affermare che il risultato era ovviamente prevedibile in anticipo, rimuovendo retroattivamente l'incertezza genuina che caratterizzava il momento della decisione. Questo produce tre distorsioni: si giudica come negligente chi non ha previsto un risultato che sembrava, prima, solo uno tra i possibili; si ignora la quantità di segnali che puntavano in direzioni diverse; si costruisce una narrativa causale lineare in cui ogni passo portava inevitabilmente al risultato.
La difficoltà pratica è che le narrative retrospettive coerenti sembrano più credibili delle descrizioni di incertezza genuine, proprio perché il risultato è noto e la narrazione può essere costruita per raggiungerlo.
L'hindsight bias è particolarmente costoso nei contesti di valutazione istituzionale perché chi valuta conosce il risultato e tende a sopravvalutare quanto fosse prevedibile. Simulare condizioni di foresight, chiedendo ai valutatori di considerare attivamente i possibili esiti alternativi plausibili al momento della decisione, riduce la distorsione nei giudizi di responsabilità.
Tre forme con cui il senno di poi compare nei testi argomentativi
Nei testi argomentativi l'hindsight bias si manifesta in tre forme distinte. La prima presenta il risultato verificatosi come l'esito ovvio e necessario di una sequenza di cause, rimuovendo retroattivamente la genuina incertezza che caratterizzava il momento della decisione. La seconda giudica chi non ha previsto il risultato come incompetente o negligente, applicando il sapere acquisito dopo i fatti alle decisioni prese nell'incertezza originale. La terza seleziona e amplifica solo i fattori che, alla luce del risultato, sembrano le cause principali, omettendo o minimizzando quelli che avrebbero potuto portare a esiti diversi.
Quattro esempi concreti e commentati
I quattro esempi che seguono mostrano le tre forme dell'hindsight bias in contesti legati all'intelligenza artificiale. La distinzione più importante: l'analisi retrospettiva corretta riconosce esplicitamente l'incertezza del momento decisionale e lavora su di essa; quella distorta la rimuove, sostituendola con la certezza che deriva dal conoscere il risultato.
L'affermazione che i segnali fossero «evidenti» e che «chiunque» avrebbe potuto vederli è formulata dopo aver conosciuto il fallimento. Ma la domanda pertinente non è se i segnali fossero visibili dopo il risultato, ovviamente sì, ma quale proporzione di segnali disponibili durante lo sviluppo puntava al fallimento e quale indicava invece prestazioni accettabili. Presentare solo i segnali coerenti con il fallimento come se fossero stati gli unici rilevanti è la struttura tipica dell'inevitabilità retrospettiva. La frase «non c'era bisogno di essere esperti» è il segnale testuale più diretto.
Qui l'analisi retrospettiva riconosce esplicitamente la contraddittorietà dei segnali disponibili al momento. La conclusione, «uno degli scenari plausibili, ma non il più probabile», è proporzionata a questa ambiguità. Nessuna rimozione dell'incertezza originale: il testo mantiene la prospettiva del momento decisionale. Questa struttura consente di imparare dai segnali sottovalutati senza distorcere la responsabilità di chi ha deciso nell'incertezza.
Il giudizio «avrebbe dovuto» e «errore grave» è formulato dopo aver conosciuto le conseguenze del bias. Ma al momento delle decisioni sul dataset e sull'architettura, gli indicatori disponibili producevano stime con intervalli di incertezza ampi. «Era difficile capire come si possa aver ignorato» rimuove retroattivamente questa incertezza, applicando la certezza che viene dal conoscere il risultato al momento in cui il risultato era ancora ignoto.
La narrativa individua nell'embedding la causa determinante del fallimento e costruisce una catena causale lineare. Ma un'analisi rigorosa richiederebbe di considerare anche i fattori che al momento della decisione indicavano quella scelta come ragionevole, vincoli computazionali, tempi di training, risorse disponibili, e i fattori alternativi che hanno contribuito al fallimento indipendentemente dalla dimensionalità. Presentare una causa singola come «la» causa è quasi sempre una semplificazione retrospettiva.
Nei testi argomentativi, il senno di poi si riconosce da queste strutture: affermazioni di inevitabilità o ovvietà applicate a eventi passati; giudizi di competenza o responsabilità che non documentano le informazioni disponibili al momento della decisione ma solo quelle disponibili ora; narrative causali che selezionano solo i fattori coerenti con il risultato. La domanda diagnostica è sempre: questo argomento sarebbe stato formulabile nello stesso modo prima di conoscere il risultato?
Cosa cercare nel testo: tre categorie distinte
Prima dell'esercizio, ecco le definizioni operative. In questo modulo il bias ha un segnale testuale che richiede una lettura attenta al tempo del ragionamento: le affermazioni sulla prevedibilità e sulla responsabilità vengono formulate dal punto di vista del presente, ma riguardano decisioni prese nel passato con informazioni incomplete.
Segnali tipici nel testo: affermazioni di inevitabilità applicate a eventi il cui esito era genuinamente incerto; giudizi di negligenza o incompetenza che non ricostruiscono le informazioni disponibili al momento della decisione; narrative causali che selezionano solo i fattori coerenti con il risultato e ignorano quelli che indicavano esiti alternativi; uso sistematico di formule come «avrebbe dovuto», «era ovvio che», «i segnali erano chiari».
Segnali tipici nel testo: ricostruzione esplicita delle informazioni disponibili al momento della decisione, con menzione dei segnali contraddittori; riconoscimento degli esiti alternativi che sembravano plausibili; conclusioni che usano formule di probabilità condizionata; distinzione tra ciò che era conoscibile prima e ciò che è diventato chiaro dopo.
Segnali tipici nel testo: appelli diretti all'indignazione morale senza contenuto argomentativo; giudizi morali generalizzati che non si riferiscono a decisioni specifiche; invocazioni di responsabilità collettiva senza specificazione. A differenza dell'hindsight bias, l'esca retorica non analizza la prevedibilità dell'evento: produce direttamente indignazione senza passare per un ragionamento sulla causalità o sulla competenza.
Non tutta l'analisi retrospettiva è bias. È legittimo e necessario analizzare le cause di eventi passati per migliorare le decisioni future. Il bias emerge quando l'analisi rimuove l'incertezza originale, quando afferma che il risultato era prevedibile con una certezza che non era disponibile al momento. La domanda diagnostica è: il testo documenta le informazioni e l'incertezza del momento della decisione, o applica il sapere attuale a un momento in cui quel sapere non esisteva?
Prima di passare all'esercizio
Pensa a una decisione legata all'uso di un sistema di intelligenza artificiale, la scelta di un modello, di un dataset o di una metrica di valutazione, di cui hai letto un'analisi dopo che il risultato era noto. Riesci a identificare se quell'analisi riconosceva l'incertezza del momento originale, o se applicava il sapere del risultato per affermare che l'esito era prevedibile? Scrivi un esempio concreto.
Analizza il testo: usa i pulsanti per evidenziare
Leggi il testo seguente per intero prima di attivare i pulsanti. Il tema è la valutazione retrospettiva del deployment di un sistema di intelligenza artificiale per il supporto alle decisioni in ambito sanitario: un contesto in cui le decisioni vengono prese in condizioni di incertezza tecnica, con dati incompleti e vincoli temporali, e vengono poi giudicate alla luce delle conseguenze. Tutti i dati sono fittizi e servono solo a fini didattici.
Attenzione: questo testo contiene anche analisi retrospettive corrette che documentano l'incertezza del momento. La distinzione tra le due non è sempre immediata alla prima lettura.
Nel marzo 2024 è stato attivato in tre ospedali pilota il Sistema di Supporto alle Decisioni Cliniche basato su intelligenza artificiale (SSDC-AI). Il sistema, progettato per suggerire protocolli terapeutici in casi di infezioni respiratorie complesse, ha generato nei primi sei mesi di esercizio risultati contrastanti, con un tasso di adesione dei medici del 62% e tre casi in cui i suggerimenti hanno contribuito a ritardi diagnostici.
I log del sistema mostrano senza ombra di dubbio che il team di sviluppo disponeva di tutti gli elementi per rilevare il rischio di bias sui dati demografici già durante la fase di validazione. I dataset di training segnalavano uno squilibrio di rappresentatività, le metriche di fairness evidenziavano disparità elevate. La scelta di procedere al deployment con soli aggiustamenti minori è stata un errore che ha avuto conseguenze dirette sulla sicurezza dei pazienti: non è possibile presentarla come una decisione ragionevole in condizioni di incertezza.
Il report tecnico documenta che durante la validazione erano stati testati tre approcci di mitigazione del bias con output divergenti: l'approccio di reweighting produceva una riduzione del 28% della disparità ma comprometteva l'accuratezza complessiva del 4%; l'approccio di adversarial debiasing manteneva l'accuratezza ma riduceva solo parzialmente il bias; il modello di riferimento senza mitigazione mostrava performance elevate su dati di validazione interni ma degradava su sottogruppi demografici esterni. La procedura standard adottata dal team prevedeva l'approvazione al deployment solo se almeno due dei tre approcci superavano la soglia combinata di accuratezza e fairness definita nel protocollo.
La questione della comunicazione del rischio ai medici è separata da quella della validazione tecnica. Le due decisioni sono state prese da soggetti diversi, rispettivamente il team di sviluppo e il comitato etico ospedaliero, con margini di discrezionalità differenti.
Il responsabile del progetto sapeva da mesi che il modello presentava limitazioni su popolazioni anziane. I test preliminari del 2023 documentavano già una riduzione di accuratezza del 12% su quel sottogruppo. Ignorare queste informazioni e non richiedere test aggiuntivi è stata una negligenza che non ha giustificazioni.
I test del 2023 classificavano il modello come «accettabile con riserve» per la fascia over-70, ma indicavano che il calo di performance era condizionato al verificarsi di comorbidità multiple non ben rappresentate nel dataset di training. I dati di esercizio reali del 2024 hanno mostrato una prevalenza di tali comorbidità superiore del 35% rispetto alle stime iniziali. Il comitato etico aveva approvato il deployment sulla base del protocollo che non prevedeva test aggiuntivi per allerte di livello intermedio in assenza di evidenze di rischio sistemico.
Tre pazienti hanno subito ritardi diagnostici. Tre famiglie hanno vissuto giorni di angoscia evitabile. Di fronte a questo, discutere di metriche di fairness e protocolli tecnici sembra quasi osceno. C'è un momento in cui bisogna smettere di nascondersi dietro gli algoritmi e guardare in faccia la realtà: qualcuno ha sbagliato e qualcuno deve pagare.
Il report identifica anche carenze strutturali di lungo periodo: il framework di valutazione etica del modello era stato definito nel 2022 e non includeva le nuove linee guida sull'audit di bias pubblicate nel 2023.
Questa è la vera causa del problema: anni di approcci affrettati, di framework non aggiornati, di priorità commerciali che hanno prevalso sulla sicurezza. Il risultato era scritto. Chiunque avesse guardato con onestà le metriche di fairness avrebbe capito che prima o poi sarebbe emerso un caso critico.
Il report rileva che il modello rientrava nella categoria «rischio moderato» secondo il framework interno 2022, che destinava risorse di audit approfondito solo ai sistemi classificati come «rischio elevato». Non esiste nella letteratura tecnica una metodologia consolidata per predire con precisione quale tra i modelli di rischio moderato manifesterà per primo un bias clinicamente rilevante in condizioni di deployment reale.
Queste strutture sanitarie meritano team che si preoccupino davvero della sicurezza dei pazienti, non sviluppatori che si nascondono dietro metriche mentre le persone subiscono conseguenze evitabili. È ora che chi progetta sistemi di intelligenza artificiale si assuma le proprie responsabilità invece di addossarle agli utilizzatori finali.
Il testo contiene tre hindsight bias con forme diverse: il primo usa l'inevitabilità retrospettiva sulla decisione di deployment; il secondo applica un giudizio di negligenza al responsabile senza ricostruire le informazioni disponibili al momento; il terzo costruisce una narrativa causale selettiva sui framework non aggiornati. Le analisi retrospettive corrette documentano tutte l'incertezza del momento decisionale con dati specifici. Le esche retoriche non analizzano la causalità ma invocano indignazione morale diretta. Prova a identificarli prima di attivare il pulsante.
Cosa hai visto, e cosa cambia adesso
Le domande che seguono affrontano la tensione più difficile di questo modulo: l'hindsight bias complica la valutazione delle responsabilità, ma non la rende impossibile o irrilevante. Il punto non è che nessuno sia mai responsabile di nulla, è che la responsabilità va valutata rispetto alle informazioni disponibili al momento, non a quelle disponibili ora.
Il primo bias e la prima analisi corretta nel testo riguardano la stessa decisione, il deployment con mitigazione parziale del bias. Il bias la presenta come un errore evidente; l'analisi corretta documenta i tre approcci di mitigazione e la procedura standard. Dopo aver letto entrambi, come valuti la decisione del team? È possibile che fosse sia tecnicamente difendibile secondo i protocolli vigenti, sia migliorabile rispetto agli standard futuri? Come si distingue questa valutazione dall'hindsight bias?
Il terzo bias usa una narrativa causale selettiva che identifica nei framework non aggiornati «la vera causa» del problema. L'analisi corretta successiva documenta che il modello rientrava nella categoria rischio moderato e che non esiste una metodologia per predire con precisione quale modello manifesterà per primo un bias clinicamente rilevante. Questo dato cambia la tua valutazione della responsabilità per la mancata revisione dei framework? È possibile che la responsabilità esista, i framework non erano aggiornati, senza che questo significhi che il risultato fosse prevedibile?
Le esche retoriche nel testo usavano l'impatto emotivo sui pazienti per produrre indignazione e rifiuto dell'analisi tecnica. Pensi che ci sia un momento in cui il riferimento alle conseguenze umane è legittimo in un testo argomentativo, anche senza dati? Come distingueresti un uso legittimo del richiamo alle conseguenze umane da un'esca retorica che le usa per bloccare l'analisi?
La tua osservazione finale
L'hindsight bias è particolarmente difficile da riconoscere quando si analizzano sistemi di intelligenza artificiale dopo un esito negativo, perché il desiderio di attribuire responsabilità, e quindi di trovare una causa e qualcuno che «avrebbe dovuto» prevenire, è comprensibile. Riesci a descrivere un caso, reale o ipotetico, in cui riconoscere l'hindsight bias non significa assolvere chi ha deciso, ma costruire una valutazione più accurata della responsabilità reale?
Fonti e bibliografia
I testi che seguono coprono lo studio fondativo di Fischhoff, le principali meta-analisi sull'entità dell'effetto, le applicazioni nei contesti legali e di valutazione istituzionale, i tentativi di debiasing documentati.
- Fischhoff, B. (1975). Hindsight ≠ foresight: The effect of outcome knowledge on judgment under uncertainty. Journal of Experimental Psychology: Human Perception and Performance, 1(3), 288–299. https://doi.org/10.1037/0096-1523.1.3.288
- Fischhoff, B., & Beyth, R. (1975). "I knew it would happen": Remembered probabilities of once-future things. Organizational Behavior and Human Performance, 13(1), 1–16. https://doi.org/10.1016/0030-5073(75)90002-1
- Christensen-Szalanski, J. J. J., & Willham, C. F. (1991). The hindsight bias: A meta-analysis. Organizational Behavior and Human Decision Processes, 48(1), 147–168. https://doi.org/10.1016/0749-5978(91)90010-Q
- Guilbault, R. L., Bryant, F. B., Brockway, J. H., & Posavac, E. J. (2004). A meta-analysis of research on hindsight bias. Basic and Applied Social Psychology, 26(2–3), 103–117. https://doi.org/10.1080/01973533.2004.9646399
- Roese, N. J., & Vohs, K. D. (2012). Hindsight bias. Perspectives on Psychological Science, 7(5), 411–426. https://doi.org/10.1177/1745691612454303
- Harley, E. M. (2007). Hindsight bias in legal decision making. Social Cognition, 25(1), 48–63. https://doi.org/10.1521/soco.2007.25.1.48
- Hawkins, S. A., & Hastie, R. (1990). Hindsight: Biased judgments of past events after the outcomes are known. Psychological Bulletin, 107(3), 311–327. https://doi.org/10.1037/0033-2909.107.3.311
- Arkes, H. R., Faust, D., Guilmette, T. J., & Hart, K. (1988). Eliminating the hindsight bias. Journal of Applied Psychology, 73(2), 305–307. https://doi.org/10.1037/0021-9010.73.2.305
- Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.
Riconoscere il senno di poi richiede di misurare la responsabilità rispetto a ciò che era conoscibile prima, non a ciò che è diventato ovvio dopo.