Come funziona l'avversione alle perdite
L'avversione alle perdite (loss aversion) è la tendenza a percepire le perdite come psicologicamente più dolorose dei guadagni equivalenti in valore assoluto. Non si tratta di una semplice preferenza per i guadagni: si tratta di un'asimmetria sistematica e misurabile nella risposta emotiva e cognitiva a perdite e guadagni di pari entità.
La formulazione originale appartiene a Daniel Kahneman e Amos Tversky, sviluppata nel contesto della Prospect Theory (1979): la loro teoria della scelta in condizioni di incertezza, che ha sostituito la teoria dell'utilità attesa come modello descrittivo del comportamento umano reale. Kahneman ha poi ricevuto il Premio Nobel per l'Economia nel 2002 anche per questo contributo.
Il dato più citato dalla ricerca: la perdita di 100 euro produce tipicamente un impatto psicologico negativo circa due volte più intenso del piacere prodotto da un guadagno di 100 euro. Il coefficiente di avversione alle perdite stimato da Kahneman e Tversky era compreso tra 1,5 e 2,5. Ricerche successive hanno replicato l'asimmetria in diversi domini, osservando variazioni sistematiche legate al tipo di decisione, all'entità delle somme in gioco e alla familiarità del soggetto con il contesto.
L'asimmetria non riguarda la razionalità del comportamento: riguarda la sua struttura psicologica. Una persona che evita una scommessa equa (50% di guadagnare 110 euro, 50% di perderne 100) non sta commettendo un errore logico, ma il modello normativo della teoria dell'utilità attesa direbbe che dovrebbe accettarla, perché il valore atteso è positivo. L'avversione alle perdite spiega perché la maggior parte delle persone rifiuta.
La Prospect Theory descrive questa asimmetria attraverso una funzione del valore a forma di S: ripida e concava nel dominio delle perdite (le perdite bruciano molto), meno ripida e convessa nel dominio dei guadagni (i guadagni piacciono, ma meno di quanto le perdite facciano male). Il punto di riferimento, lo status quo, la situazione attuale, l'aspettativa, è l'origine di questa funzione: tutto viene valutato come guadagno o perdita rispetto a quel punto, non in termini assoluti.
Quando l'avversione alle perdite è razionale, e quando distorce
La distinzione tra versione adattiva e versione distorcente evita di ridurre l'avversione alle perdite a un semplice difetto cognitivo. Pesare le perdite più dei guadagni produce decisioni migliori in contesti con conseguenze irreversibili e risorse limitate. In altri contesti, produce scelte sistematicamente peggiori.
In ambienti con risorse limitate e conseguenze irreversibili, dare maggior peso alle perdite ha senso evolutivo e razionale. Un cacciatore-raccoglitore che perde la metà delle sue riserve di cibo affronta una minaccia alla sopravvivenza molto più grave del beneficio prodotto dal raddoppio delle stesse riserve: la funzione di utilità reale in queste condizioni è genuinamente asimmetrica.
Allo stesso modo, in decisioni con forti asimmetrie nelle conseguenze, dove una perdita è irreversibile e un guadagno equivalente non compensa, la cautela dettata dall'avversione alle perdite è una strategia adattiva. Gigerenzer e i sostenitori della razionalità ecologica sottolineano che in questi ambienti l'avversione alle perdite non è un bias: è una risposta calibrata sulla struttura del rischio reale.
In questi casi: la cautela verso le perdite riflette una struttura delle conseguenze genuinamente asimmetrica. Il comportamento è razionale rispetto all'ambiente.
Il bias emerge quando l'avversione alle perdite viene applicata a contesti in cui le conseguenze non sono genuinamente asimmetriche, oppure quando porta a mantenere la situazione attuale anche di fronte a prove che un cambiamento sarebbe vantaggioso. I tre meccanismi più documentati sono: il disposition effect (vendere troppo presto i titoli in guadagno e tenere troppo a lungo quelli in perdita), il sunk cost fallacy (continuare a investire in un progetto fallimentare perché «abbiamo già speso troppo»), e lo status quo bias (preferire l'inazione anche quando l'azione sarebbe razionalmente preferibile).
In tutti questi casi, la perdita potenziale viene sopravvalutata rispetto al guadagno potenziale di pari entità, e la decisione che ne risulta non è ottimale dal punto di vista del benessere atteso.
In questi casi: l'asimmetria cognitiva non riflette un'asimmetria reale nelle conseguenze. Il comportamento è sub-ottimale rispetto agli obiettivi dichiarati dell'agente.
La stessa decisione può essere percepita come perdita o come guadagno a seconda di come viene definito il punto di riferimento, e questa è la leva più potente con cui l'avversione alle perdite viene usata strategicamente nei testi argomentativi. Presentare un mancato guadagno come una perdita, o incorniciare uno status quo come un'acquisizione da proteggere, sono operazioni di framing che attivano l'avversione alle perdite anche in contesti dove non è giustificata.
Tre ambiti in cui l'avversione alle perdite ha impatto sulle decisioni riguardanti l'AI
L'avversione alle perdite non è solo un fenomeno individuale: ha effetti documentati su decisioni organizzative, politiche pubbliche e comunicazione argomentativa. I tre ambiti che seguono sono quelli con la base empirica più robusta e con le implicazioni più dirette per chi legge e produce testi pubblici sull'intelligenza artificiale.
Le organizzazioni che valutano l'integrazione di sistemi di AI spesso incontrano resistenze interne sproporzionate rispetto ai benefici attesi. I team che gestiscono processi consolidati percepiscono la transizione come una perdita di controllo, competenze e routine, anche quando i dati proiettano guadagni di efficienza. Questo produce inerzia decisionale: i responsabili evitano cambiamenti vantaggiosi perché i costi immediati sono visibili e vocali, mentre i benefici futuri sono diffusi e astratti.
Kahneman, Knetsch e Thaler (1991) hanno documentato questo effetto in numerosi contesti di policy, introducendo il concetto di endowment effect: tendiamo a sopravvalutare ciò che già possediamo rispetto a ciò che potremmo acquisire. Nel contesto AI, questo si traduce in una sovrastima dei rischi della transizione e una sottostima dei costi dell'inazione.
La stessa proposta di integrazione di AI, comunicata come «evitare la perdita di competitività» invece che come «ottenere il guadagno di efficienza», produce livelli di consenso significativamente diversi anche quando le conseguenze oggettive sono identiche. Tversky e Kahneman (1981) hanno mostrato questo effetto nel celebre problema del «Programma asiatico»: la stessa scelta veniva preferita o rifiutata dalla maggioranza a seconda che fosse formulata in termini di vite salvate (guadagno) o vite perdute (perdita).
Nei testi pubblici sull'AI, questa asimmetria viene usata consapevolmente o inconsapevolmente per modulare il consenso: incorniciare una proposta come prevenzione di una perdita aumenta sistematicamente la sua accettabilità rispetto alla stessa proposta incorniciata come opportunità di guadagno.
L'errore dei costi irrecuperabili (sunk cost fallacy) è una delle manifestazioni più costose dell'avversione alle perdite in contesti organizzativi: continuare a investire in un progetto di AI già avviato, un modello personalizzato, un sistema di automazione, una piattaforma di analisi, anche quando le proiezioni realistiche indicano che non produrrà i risultati attesi, semplicemente perché «abbiamo già investito troppo per fermarci».
Il costo già sostenuto non è razionalmente rilevante per la decisione futura: ciò che conta è solo il confronto tra il costo futuro e il beneficio futuro. Ma l'avversione alle perdite trasforma il costo già sostenuto in una perdita che sembra possibile «recuperare» continuando, una percezione che può moltiplicare i danni decisionali in misura considerevole.
Quattro esempi concreti e commentati
I quattro esempi che seguono mostrano l'avversione alle perdite in contesti legati all'intelligenza artificiale. La distinzione più importante da acquisire: nei testi argomentativi, l'avversione alle perdite si riconosce non solo quando viene descritta, ma soprattutto quando viene usata strategicamente, quando un argomento è costruito per attivare la risposta psicologica alla perdita piuttosto che per presentare un'analisi bilanciata dei pro e contro.
Il punto di riferimento usato qui non è lo stato attuale, ma uno stato futuro ipotetico in cui il sistema di AI è già stato adottato. Rispetto a quel punto di riferimento immaginario, il non adottare il sistema viene presentato come una «perdita» di 200.000 euro. Ma dal punto di vista della situazione attuale, si tratta invece di un mancato guadagno futuro, una categoria psicologicamente molto meno urgente. La formulazione trasforma deliberatamente un'opportunità futura in una perdita presente per attivare l'avversione alle perdite nel lettore. La stessa cifra presentata come «questo sistema porterebbe 200.000 euro aggiuntivi l'anno di valore» produrrebbe un impatto psicologico significativamente diverso, a parità di contenuto informativo.
Qui la stessa cifra di 200 ore è presentata come guadagno potenziale con fonte nominata, intervallo di stima esplicito, e riconoscimento dei rischi che potrebbero ridurne l'entità. Il lettore dispone degli elementi per valutare autonomamente la solidità della proiezione. Nessun framing come perdita è attivo: il confronto è tra situazione attuale e situazione con sistema di AI, senza costruire un punto di riferimento ipotetico da cui la non-adozione possa essere percepita come perdita. I dati sono esplicitamente fittizi e costruiti a fini didattici.
Questo è un esempio diretto della sunk cost fallacy: i 18 mesi già spesi vengono usati come argomento per continuare, ma dal punto di vista della decisione razionale quel tempo è già speso e non può essere recuperato né con il completamento né con la sospensione. La domanda corretta non è «abbiamo già investito 18 mesi?» ma «completare il progetto produrrà benefici sufficienti a giustificare i costi futuri?». Se la risposta è no, i costi già sostenuti sono irrilevanti per la decisione. La formula «rinunciare agli investimenti già sostenuti» attiva l'avversione alle perdite trasformando i costi passati in una perdita che sembra recuperabile, quando non lo è.
Qui lo status quo, il sistema decisionale attuale, viene costruito come un'acquisizione preziosa («ciò che abbiamo costruito») che l'adozione di AI minaccia di distruggere. Questa operazione di framing attiva l'avversione alle perdite senza analizzare nel merito la proposta di integrazione: non vengono citati i limiti del sistema attuale, né viene valutato se l'AI potrebbe effettivamente migliorare o peggiorare la situazione. Il ragionamento è costruito interamente sul registro della perdita («mettere a rischio», «compromesso», «non si delega») senza che venga fornita un'analisi delle conseguenze reali. La forza emotiva dell'argomento dipende dall'attivazione dell'avversione alle perdite, non dalla solidità delle prove.
Nei testi argomentativi sull'AI, l'avversione alle perdite è attivata strategicamente quando: (1) un'opportunità futura viene presentata come perdita rispetto a un punto di riferimento ipotetico; (2) i costi già sostenuti vengono usati come argomento per continuare; (3) lo status quo viene presentato come un bene già posseduto che una proposta di cambiamento minaccia di distruggere, senza analisi dei suoi difetti. In tutti e tre i casi, la forza persuasiva dell'argomento non dipende dalla qualità delle prove, ma dall'asimmetria psicologica nella risposta a perdite e guadagni.
Cosa cercare nel testo: tre categorie distinte
Prima dell'esercizio, ecco le definizioni operative. In questo modulo il bias da avversione alle perdite ha tre segnali testuali distinti, tutti legati alla costruzione del punto di riferimento rispetto al quale le conseguenze vengono valutate come perdite o guadagni.
Segnali tipici nel testo: (a) framing come perdita, un mancato guadagno futuro viene presentato come perdita rispetto a un punto di riferimento ipotetico («perderemo X se non…»); (b) sunk cost, i costi già sostenuti vengono usati come argomento per continuare un'azione («abbiamo già speso troppo per fermarci»); (c) status quo come acquisizione, lo stato attuale viene presentato come un bene già posseduto che una proposta di cambiamento minaccia di distruggere, senza analisi dei difetti dello status quo. In tutti e tre i casi, l'argomento attiva la risposta psicologica alla perdita invece di presentare un'analisi bilanciata.
Segnali tipici nel testo: i costi e i benefici vengono presentati entrambi con dati di supporto; il punto di riferimento usato per la valutazione è esplicitato e giustificato; le stime sono accompagnate da intervalli di incertezza o da riconoscimento dei limiti; la conclusione è proporzionata ai dati e non costruita per massimizzare l'impatto emotivo. Cruciale: un'analisi corretta può riconoscere che una perdita è più grave di un guadagno equivalente quando ci sono ragioni oggettive per questa asimmetria, non ogni riferimento alle perdite è bias.
Segnali tipici nel testo: appelli diretti alla paura o alla responsabilità morale («non possiamo guardare dall'altra parte mentre questo accade»); invocazioni di valori assoluti senza applicazione al caso specifico («la dignità delle persone non ha prezzo»); formule di urgenza privi di contenuto argomentativo («il tempo è scaduto», «non c'è più margine per l'errore»). A differenza del bias da avversione alle perdite, l'esca retorica non costruisce un punto di riferimento: produce direttamente l'emozione senza passare per una struttura perdita/guadagno.
Il bias da avversione alle perdite ha una struttura argomentativa riconoscibile: contiene quasi sempre una cifra, un riferimento a ciò che «si perderà» o si è «già investito», un confronto implicito tra situazione attuale e situazione futura. L'esca retorica è più generica: non costruisce una struttura perdita/guadagno ma invoca direttamente valori, emozioni o urgenze morali. La distinzione si vede nel testo: il bias usa numeri e scenari; l'esca usa aggettivi e imperativi morali.
Prima di passare all'esercizio
Pensa a una decisione che hai rimandato o evitato perché ti sembrava di «rischiare di perdere» qualcosa che già possiedi, anche se obiettivamente il cambiamento avrebbe potuto migliorare la tua situazione. Era lo status quo a funzionare come punto di riferimento, o c'era un'altra ancora? Prova a descrivere il meccanismo psicologico che ha guidato quella scelta.
Analizza il testo: usa i pulsanti per evidenziare
Leggi il testo seguente per intero prima di attivare i pulsanti. Il tema è il dibattito sull'integrazione di modelli linguistici avanzati nei flussi di lavoro documentali: un contesto in cui coesistono dati fittizi a fini didattici, interessi contrapposti, e un uso sistematico del framing perdita/guadagno per orientare il lettore. È un terreno in cui l'avversione alle perdite viene attivata in modo particolarmente sottile, perché i soggetti che «perderebbero» dalla transizione sono identificabili e presenti, mentre i beneficiari futuri sono astratti e diffusi.
Attenzione: in questo testo alcuni argomenti potrebbero sembrare ragionevoli anche dopo la prima lettura. Questo è parte dell'esercizio: il bias da avversione alle perdite è efficace proprio perché sembra razionale. Tutti i dati statistici citati sono fittizi e costruiti esclusivamente per fini didattici.
L'integrazione dei modelli linguistici avanzati nei flussi di lavoro documentali solleva interrogativi sulla qualità dell'output e sulla sicurezza dei dati. Le organizzazioni che adottano questi strumenti devono bilanciare la produttività immediata con la necessità di validare le informazioni generate.
Ogni professionista che oggi gestisce documenti ha costruito nel tempo una routine di lavoro basata su strumenti consolidati. Sostituire quelle procedure con sistemi di AI significa rinunciare a anni di esperienza e di controllo diretto. I team operativi perderanno mediamente tra le 3 e le 5 ore settimanali di familiarità operativa: tempo che non tornerà mai indietro.
Secondo proiezioni fittizie costruite a fini didattici, un professionista che integra un modello validato in un flusso di lavoro documentale riduce il tempo medio di elaborazione da 45 a 12 minuti per pratica, con un tasso di accuratezza che passa dal 91% al 96% su un campione di 5.000 casi simulati. Il differenziale atteso è quindi di 33 minuti risparmiati per pratica, con un margine di errore stimato del ±3%.
I sostenitori dell'integrazione sottolineano che l'attuale sistema genera tempi di risposta insufficienti per la grande maggioranza delle pratiche: il 62% delle richieste semplici nel 2024 ha richiesto più di 48 ore per essere evasa, secondo dati interni fittizi.
Ma quello che abbiamo costruito con anni di procedure consolidate non può essere rimesso in discussione da un'implementazione calata dall'alto. Chi ha scelto di gestire i documenti in un certo modo lo ha fatto anche in base alle regole del gioco vigenti: cambiare quelle regole a metà partita significa tradire un patto implicito con i team operativi.
Un'analisi fittizia condotta su cinque coorti di professionisti suddivisi per anzianità ha esaminato l'impatto dell'integrazione di AI sul carico di lavoro. Per i professionisti under 35, il valore atteso dei guadagni di efficienza è positivo in tutti gli scenari considerati: il tempo risparmiato produce un beneficio netto. Per i professionisti over 55, il valore atteso è negativo in tutti gli scenari: il tempo necessario per apprendere il nuovo strumento non viene compensato dai guadagni nei primi due anni.
Non si può chiedere a chi ha costruito la propria competenza con anni di pratica di pagare per le incertezze di un sistema che non ha mai davvero garantito trasparenza. È ora che qualcuno difenda chi produce valore in questo settore invece di esporlo a rischi non calcolati.
Il dibattito sull'integrazione di AI riflette una tensione genuina tra due interessi legittimi: la sostenibilità dei flussi di lavoro nel lungo periodo e la tutela del carico cognitivo nel breve periodo dei professionisti attualmente attivi. Nessuna transizione può soddisfare entrambi gli obiettivi senza distribuire costi su qualcuno.
I 15.000 ore già investite dai team nella formazione sui sistemi attuali sono state gestite con risultati tutt'altro che soddisfacenti. Abbandonare il sistema attuale significherebbe riconoscere che quelle ore sono state in parte inutili, e nessun responsabile ha il coraggio di ammetterlo.
Un report fittizio documenta che il bilancio tempo/beneficio della gestione documentale attuale, il conto tra ore investite e pratiche evase, è stato positivo per 2.100 ore nel periodo di riferimento, contribuendo al raggiungimento degli obiettivi di servizio. Questo dato indica che il sistema attuale non è in deficit per i professionisti, ma suggerisce anche che parte del loro tempo ha finanziato attività non direttamente correlate alla produttività individuale.
Il futuro professionale di migliaia di persone non può essere sacrificato sull'altare dell'innovazione a tutti i costi. Prima le persone, poi l'efficienza.
Il testo contiene tre bias da avversione alle perdite con strutture diverse: il primo usa il framing di perdita di familiarità operativa rispetto a uno status quo percepito come acquisizione; il secondo usa l'argomento del patto violato (status quo come contratto implicito); il terzo usa la sunk cost fallacy sulle ore già investite in formazione. Le tre inferenze usano tutte dati fittizi esplicitamente dichiarati come tali, con fonte nominata e intervalli di incertezza. Le due esche retoriche non costruiscono una struttura perdita/guadagno ma invocano direttamente valori e identità.
Cosa hai visto, e cosa cambia adesso
Le domande che seguono non hanno una risposta esatta. Chiedono di mettere a fuoco la struttura del bias in un testo in cui i dati fittizi e gli argomenti emotivi coesistono, che è la condizione più comune nella comunicazione pubblica sull'AI.
Il primo bias nel testo («i team operativi perderanno tra le 3 e le 5 ore settimanali di familiarità operativa») e la prima inferenza che lo segue immediatamente («riduce il tempo medio di elaborazione da 45 a 12 minuti per pratica») descrivono lo stesso fenomeno da due punti di riferimento opposti. Come cambia la tua valutazione dell'integrazione di AI a seconda di quale punto di riferimento usi: il tempo operativo oggi o la produttività futura? Riesci a identificare quale dei due punti di riferimento è più pertinente per valutare una transizione tecnologica?
Il terzo bias usa le 15.000 ore già investite in formazione come argomento contro il cambiamento del sistema, una forma classica di sunk cost fallacy. La presenza di un dato reale (15.000 ore) rende questo argomento più difficile da riconoscere come fallacia rispetto all'esempio 3 della fase 04 (i costi del progetto di AI)? Cosa cambia quando la sunk cost fallacy è applicata a investimenti formativi personali anziché a spese organizzative?
L'analisi fittizia nella seconda inferenza mostrava che l'integrazione di AI è vantaggiosa per i professionisti under 35 e svantaggiosa per quelli over 55. Questo risultato cambia la tua valutazione morale dell'integrazione? È possibile che una politica sia razionalmente giustificata dal punto di vista sistemico e allo stesso tempo produca perdite reali, non percepite, ma reali, per una parte dei soggetti coinvolti? Come si distingue, in quel caso, una perdita reale da una attivazione del bias?
La tua osservazione finale
Nel testo dell'esercizio, i bias da avversione alle perdite usavano dati fittizi inseriti in una struttura di framing. Questo li rendeva più convincenti degli esempi commentati nella fase 04, che erano più schematici. Riesci a identificare un testo che hai letto di recente, un articolo, un comunicato, un post, in cui un argomento simile era in azione nel contesto dell'AI? Qual era il punto di riferimento costruito, e come orientava la valutazione del lettore?
Fonti e bibliografia
I testi che seguono coprono la Prospect Theory e il suo studio fondativo, la letteratura sull'endowment effect e il sunk cost, le applicazioni al framing nelle politiche pubbliche, il dibattito tra la prospettiva di Kahneman e la critica di Gigerenzer sulla razionalità ecologica, e i principali tentativi di debiasing documentati in letteratura.
- Kahneman, D., & Tversky, A. (1979). Prospect theory: An analysis of decision under risk. Econometrica, 47(2), 263–291. https://doi.org/10.2307/1914185
- Tversky, A., & Kahneman, D. (1992). Advances in prospect theory: Cumulative representation of uncertainty. Journal of Risk and Uncertainty, 5(4), 297–323. https://doi.org/10.1007/BF00122574
- Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.
- Tversky, A., & Kahneman, D. (1981). The framing of decisions and the psychology of choice. Science, 211(4481), 453–458. https://doi.org/10.1126/science.7455683
- Levin, I. P., Schneider, S. L., & Gaeth, G. J. (1998). All frames are not created equal: A typology and critical analysis of framing effects. Organizational Behavior and Human Decision Processes, 76(2), 149–188. https://doi.org/10.1006/obhd.1998.2804
- Kahneman, D., Knetsch, J. L., & Thaler, R. H. (1990). Experimental tests of the endowment effect and the Coase theorem. Journal of Political Economy, 98(6), 1325–1348. https://doi.org/10.1086/261737
- Kahneman, D., Knetsch, J. L., & Thaler, R. H. (1991). Anomalies: The endowment effect, loss aversion, and status quo bias. Journal of Economic Perspectives, 5(1), 193–206. https://doi.org/10.1257/jep.5.1.193
- Arkes, H. R., & Blumer, C. (1985). The psychology of sunk cost. Organizational Behavior and Human Decision Processes, 35(1), 124–140. https://doi.org/10.1016/0749-5978(85)90049-4
- Thaler, R. H. (1980). Toward a positive theory of consumer choice. Journal of Economic Behavior & Organization, 1(1), 39–60. https://doi.org/10.1016/0167-2681(80)90051-7
- Samuelson, W., & Zeckhauser, R. (1988). Status quo bias in decision making. Journal of Risk and Uncertainty, 1(1), 7–59. https://doi.org/10.1007/BF00055564
- Novemsky, N., & Kahneman, D. (2005). The boundaries of loss aversion. Journal of Marketing Research, 42(2), 119–128. https://doi.org/10.1509/jmkr.42.2.119.62292
- Harinck, F., Van Dijk, E., Van Beest, I., & Mersmann, P. (2007). When gains loom larger than losses: Reversed loss aversion for small amounts of money. Psychological Science, 18(12), 1099–1105. https://doi.org/10.1111/j.1467-9280.2007.02031.x
- Gigerenzer, G. (2007). Gut feelings: The intelligence of the unconscious. Viking Press.
- Gigerenzer, G., & Brighton, H. (2009). Homo heuristicus: Why biased minds make better inferences. Topics in Cognitive Science, 1(1), 107–143. https://doi.org/10.1111/j.1756-8765.2008.01006.x
- Thaler, R. H., & Sunstein, C. R. (2008). Nudge: Improving decisions about health, wealth, and happiness. Yale University Press.
La domanda da tenere a mente di fronte a un argomento che parla di perdite non è «questa perdita è reale?», spesso lo è. La domanda è: il punto di riferimento rispetto al quale qualcosa viene presentato come perdita è quello logicamente corretto, o è stato costruito per attivare una risposta psicologica?