PERCORSO DI PENSIERO CRITICO

Scorciatoie e
distorsioni del giudizio

Questo percorso studia i meccanismi cognitivi che producono distorsioni sistematiche nel giudizio, euristiche, bias e fallacie, con attenzione specifica alle condizioni in cui questi meccanismi si manifestano nell'interazione con i sistemi di intelligenza artificiale.

PRIMA DI INIZIARE

  • Il percorso ti aiuta a riconoscere quando il tuo ragionamento non è adeguato alla situazione e a distinguere le scorciatoie mentali utili da quelle che producono distorsioni.
  • Tempo stimato: 20–30 minuti in una sola sessione.

Di cosa si occupa questo percorso

Quando usiamo un sistema AI per cercare un'informazione, valutare un'opzione o prendere una decisione, non siamo osservatori neutri degli output che riceviamo. Selezioniamo le domande che facciamo, interpretiamo le risposte attraverso ciò che già crediamo, ricordiamo gli errori che confermano i nostri sospetti e dimentichiamo quelli che li contraddicono. I sistemi AI non amplificano solo le nostre conoscenze: amplificano anche i nostri modi di sbagliare.

Questo percorso studia i meccanismi cognitivi che producono distorsioni sistematiche nel giudizio, euristiche, bias e fallacie, con attenzione specifica alle condizioni in cui questi meccanismi si manifestano nell'interazione con i sistemi di intelligenza artificiale. L'obiettivo non è costruire una lista di errori da evitare, ma sviluppare la capacità di riconoscere quando il proprio processo di ragionamento non è adeguato alla situazione, e di distinguere i casi in cui una scorciatoia mentale funziona bene da quelli in cui produce conclusioni distorte.

Come si colloca nella proposta di apprendimento

Il percorso fa parte di un'offerta composta da quattro aree tematiche indipendenti ma coerenti tra loro, ciascuna dedicata a un aspetto del pensiero critico applicato all'intelligenza artificiale.

Il percorso "Definizioni chiave" chiarisce i concetti fondamentali che ricorrono nel discorso sull'AI, intelligenza, comprensione, autonomia, affidabilità, esaminando come vengono usati e come vengono fraintesi. Il percorso "Le narrazioni pubbliche sull'AI" analizza i modi in cui l'AI viene raccontata nei media, nella divulgazione e nel discorso pubblico, con attenzione alle metafore ricorrenti e alle distorsioni che introducono. Il percorso "Strumenti intelligenti, menti attive" è dedicato all'uso pratico e consapevole dei sistemi AI nella vita quotidiana e professionale.

Il percorso "Scorciatoie e distorsioni del giudizio" si distingue dalle altre tre aree perché il suo oggetto non è l'AI in quanto tale, ma la mente di chi la usa. I meccanismi cognitivi che studia preesistono ai sistemi AI e operano in molti contesti. Il percorso li esamina però specificamente nelle condizioni in cui l'interazione con sistemi automatizzati li rende più difficili da riconoscere: quando la fluidità di una risposta generata nasconde un'incertezza fattuale, quando la personalizzazione algoritmica rafforza convinzioni preesistenti, quando la delega a un sistema esperto riduce la vigilanza critica.

A chi si rivolge

Il percorso si rivolge a chi usa strumenti AI nella vita quotidiana o professionale senza avere una formazione tecnica specifica, e vuole capire non solo come funzionano questi strumenti, ma come il proprio modo di usarli influenza i risultati che ottiene. Non richiede conoscenze di psicologia cognitiva né di informatica. Richiede la disponibilità a osservare il proprio processo di ragionamento mentre ragiona.

Il pubblico comprende studenti, insegnanti, professionisti e lettori curiosi che si trovano a valutare informazioni prodotte da sistemi AI, a prendere decisioni supportate da raccomandazioni algoritmiche, o semplicemente a chiedersi fino a che punto ci si può fidare di quello che un sistema AI produce, e di come lo si interpreta.

Come funziona il percorso

Il percorso è composto da un modulo introduttivo e da otto moduli tematici. Il modulo introduttivo stabilisce il lessico e i concetti necessari per lavorare sui moduli successivi: distingue euristiche, bias cognitivi e fallacie logiche, introduce le prospettive teoriche principali sul giudizio umano e fornisce gli strumenti per valutare criticamente le affermazioni sui bias che circolano nella divulgazione. Ogni modulo tematico sviluppa un singolo meccanismo cognitivo attraverso una struttura in tre parti: un'analisi teorica del fenomeno, casi commentati che mostrano il meccanismo in azione in contesti legati all'AI, e un esercizio interattivo su testo con strumento di evidenziazione.

L'esercizio è il nucleo didattico di ciascun modulo. Il testo su cui si lavora è sempre fittizio, autori, istituzioni e dati sono inventati a scopo didattico, per evitare che le opinioni del lettore sul contenuto interferiscano con il riconoscimento dei meccanismi. Il testo argomenta sempre su temi legati all'uso e alla valutazione dei sistemi AI, in modo che la competenza sviluppata nell'esercizio sia direttamente trasferibile a situazioni reali.

Per una descrizione dettagliata dell'approccio didattico e dei criteri che guidano la selezione e l'organizzazione dei contenuti, si rimanda alla pagina Metodologia.

I moduli

Il percorso comprende un modulo introduttivo e otto moduli tematici. Ciascun modulo può essere consultato in modo indipendente, ma l'ordine proposto segue una progressione logica di complessità e trasferibilità.

01
Gli errori di giudizio
Il modulo introduttivo del percorso. Distingue i tre concetti fondamentali, euristica, bias cognitivo, fallacia logica, e introduce le principali prospettive teoriche sul giudizio umano: il programma di Kahneman e Tversky sulle deviazioni da criteri normativi, la razionalità ecologica di Gigerenzer, la distinzione di Stanovich tra errori algoritmici e disposizionali. Fornisce anche criteri per valutare criticamente le affermazioni sui bias, un campo in cui la divulgazione spesso supera le evidenze disponibili.
02
Bias di conferma
La tendenza a cercare, interpretare e ricordare le informazioni in modo da confermare le credenze preesistenti. Il modulo distingue i tre meccanismi distinti, ricerca selettiva, interpretazione distorta, memoria selettiva, e analizza come ciascuno si manifesta nell'interazione con i sistemi AI: nella formulazione delle query, nella valutazione degli output, nella costruzione progressiva di una valutazione sull'affidabilità di un modello.
03
Euristica della disponibilità
La mente stima la probabilità di un evento in base alla facilità con cui esempi simili affiorano alla memoria. Nei contesti digitali, questo meccanismo è amplificato dalla copertura mediatica degli errori AI più spettacolari, producendo valutazioni sistematicamente distorte rispetto alle effettive distribuzioni di errore dei sistemi, in senso sia pessimistico sia ottimistico.
04
Effetto ancoraggio
La tendenza ad attribuire peso sproporzionato alla prima informazione ricevuta quando si formulano stime o si prendono decisioni. Il modulo analizza come i sistemi AI incorporino implicitamente valori di riferimento nelle proprie risposte, e come la prima stima fornita da un modello possa orientare il giudizio successivo dell'utente anche quando è generata con margini di incertezza elevati.
05
Avversione alla perdita
L'impatto psicologico di una perdita è percepito come più intenso di quello di un guadagno equivalente. Il modulo esamina come questo meccanismo sia sfruttato nelle interfacce digitali attraverso notifiche di urgenza, scarsità e rischio, e come i sistemi AI possano presentare opzioni in termini di perdite evitate piuttosto che di guadagni ottenuti, orientando la decisione in modo non trasparente.
06
Bias del senno di poi
La tendenza a percepire gli eventi passati come più prevedibili di quanto fossero al momento. Nell'interazione con i sistemi AI, questo meccanismo produce valutazioni retrospettive distorte: gli errori di un modello sembrano evidenti a posteriori, generando l'impressione che avrebbero dovuto essere anticipati e sottostimando l'incertezza reale in cui la valutazione iniziale era stata condotta.
07
Errore fondamentale di attribuzione
La tendenza ad attribuire il comportamento altrui a tratti disposizionali interni trascurando il peso delle circostanze, mentre per sé stessi si adottano spiegazioni situazionali. Il modulo analizza come questo meccanismo influenzi la valutazione degli output AI: gli errori di un sistema tendono a essere attribuiti a limitazioni strutturali del modello, mentre gli errori propri nell'usarlo vengono spiegati con fattori contingenti.
08
Effetto alone
La tendenza a estendere un giudizio positivo su una caratteristica rilevante a tutte le altre caratteristiche di un oggetto o sistema. Le prestazioni elevate dei sistemi AI su compiti visibili, generare testo fluente, rispondere rapidamente, sembrare sicuri, producono spesso una fiducia generalizzata che si estende a compiti su cui le prestazioni sono più fragili, come il ragionamento quantitativo, il recupero di informazioni recenti o la coerenza su argomenti specialistici.
09
Automation Bias
La tendenza a sovrastimare l'affidabilità dei sistemi automatizzati e a ridurre lo scrutinio critico in loro presenza. Documentato inizialmente in ambito aeronautico e medico, descrive la tendenza a deferire al giudizio automatizzato anche quando i segnali disponibili suggerirebbero di verificarlo. Nel contesto dell'AI generativa, si manifesta come riduzione progressiva della verifica degli output man mano che l'uso del sistema diventa familiare.
Nota

L'acquisizione del lessico critico nel modulo introduttivo "Gli errori di giudizio" è propedeutica al corretto svolgimento degli esercizi interattivi presenti nei moduli successivi.