LE NARRAZIONI PUBBLICHE SULL'AI

L'AI potenzia, sostituisce,
rende dipendenti

Come cambia il «fare umano» quando usiamo uno strumento che non è mai neutrale? Smontiamo il mito che l'AI sia intrinsecamente buona o cattiva per il pensiero e analizziamo gli effetti concreti.

COME USARE QUESTO MODULO

  • Leggi le prime quattro fasi: ti mostrano come distinguere tra potenziamento, sostituzione e dipendenza nell'uso dell'AI.
  • Nella fase 5 analizza un testo usando i pulsanti colorati per identificare tre tipi di affermazione.
  • Tempo stimato: 30–45 minuti in una sola sessione.

«L'AI mi rende più intelligente», o mi sta sostituendo?

Prerequisiti: Moduli 1 e 2

Questo modulo presuppone che tu abbia compreso che l'AI non è un soggetto con intenzioni proprie (Modulo 1) e che i dati non sono neutrali (Modulo 2). Se non l'hai ancora fatto, ti consigliamo di completare prima i moduli precedenti: solo smontando antropomorfizzazione e mito della neutralità ha senso analizzare come l'uso dell'AI modifica le nostre capacità.

«Con l'AI scrivo meglio.» «L'AI mi fa risparmiare tempo per le cose importanti.» «Se delego tutto all'AI, perderò la capacità di farlo da solo.» Frasi come queste circolano nel dibattito sull'impatto cognitivo dell'AI. Sembrano descrivere effetti opposti: potenziamento vs. erosione. In realtà, descrivono tre meccanismi distinti che possono coesistere, e che è cruciale distinguere.

Il problema non è che l'AI sia «buona» o «cattiva» per il pensiero. Il problema è che questi tre meccanismi, potenziamento, sostituzione, dipendenza, hanno conseguenze pratiche molto diverse. Confonderli porta a valutazioni ingenue: entusiaste («l'AI mi rende più capace») o catastrofiste («l'AI mi sta rendendo stupido»). Imparare a distinguerli è il terzo passo per sviluppare una competenza critica stabile.

Usare un correttore automatico per evitare errori di battitura è potenziamento: libera risorse cognitive per concentrarsi sul contenuto. Usare un generatore di testo per scrivere un saggio senza leggerlo né revisionarlo è sostituzione: la funzione «strutturare un argomento» viene delegata. Se dopo anni di delega non riesci più a strutturare un argomento senza aiuto, sei in dipendenza: la capacità si è erosa per mancanza di pratica.

Ecco il punto cruciale: lo stesso strumento può potenziare, sostituire o creare dipendenza a seconda di come viene usato, da chi e in quale contesto. Non è l'AI in sé a determinare l'effetto, ma l'interazione tra strumento, utente e compito. Imparare a riconoscere quale meccanismo è in atto in una data situazione è essenziale per usare l'AI in modo consapevole, senza rifiutarla né subirla.

Quello che si dice spesso «L'AI rende tutti più produttivi e creativi.» oppure «L'AI ci sta rendendo pigri e incapaci.»

Attribuisce all'AI un effetto intrinseco e uniforme, ignorando che l'impatto dipende dall'uso, dal contesto e dalla competenza pregressa dell'utente.

Quello che dice la ricerca «L'effetto cognitivo dell'AI è contingente: può potenziare chi ha già competenze di base, sostituire funzioni in contesti di delega acritica, o erodere capacità se usata come sostituto della pratica.»

Studi su «cognitive offloading» e «skill atrophy» mostrano che la delega a strumenti esterni ha effetti diversi a seconda di frequenza, consapevolezza e presenza di attività di mantenimento.

La domanda giusta In questo specifico contesto, l'AI sta liberando risorse per compiti di valore superiore (potenziamento), delegando stabilmente una funzione (sostituzione), o riducendo la mia capacità di farla senza lo strumento (dipendenza)?

Prima di continuare

Pensa a un'attività in cui usi regolarmente l'AI: scrivere, studiare, organizzare, creare. Ti sembra che lo strumento ti stia potenziando, sostituendo o creando dipendenza? Quali segnali ti fanno pensare a una categoria piuttosto che a un'altra?

Potenziamento, Sostituzione, Dipendenza

Quando analizziamo l'impatto dell'AI sulle capacità umane, possiamo incontrare tre tipi distinti di affermazione. Riconoscerli è l'obiettivo operativo di questo modulo. Ciascuno ha segnali linguistici ricorrenti e implica un diverso livello di consapevolezza sull'interazione uomo-strumento.

1 Potenziamento

L'AI libera tempo o risorse cognitive per compiti ad alto valore, richiedendo però una competenza pregressa per essere usata efficacemente. Non sostituisce la capacità umana, ma la amplifica: l'utente resta al centro del processo decisionale.

Segnali da cercare: verbi come «libera», «amplifica», «supporta», «consente di concentrarsi su»; riferimenti espliciti alla competenza richiesta («per usare bene questo strumento serve...»); distinzione tra compito delegato e compito mantenuto («delego la bozza, ma revisiono io il contenuto»).

2 Sostituzione

Una funzione cognitiva o operativa viene stabilmente delegata allo strumento e non è più praticata dall'umano. Non implica necessariamente un danno: alcune sostituzioni sono efficienti. Il punto critico è la consapevolezza della delega e la possibilità di riprendere la funzione se necessario.

Segnali da cercare: verbi come «delega», «affida», «lascia fare a»; assenza di riferimenti a revisione o controllo umano («l'AI scrive il report», senza menzione di validazione); normalizzazione della delega («ormai lo fa sempre l'AI»).

3 Dipendenza (Erosione)

L'incapacità progressiva di compiere un'azione senza lo strumento, dovuta alla mancanza di pratica. Non è un effetto immediato dell'uso, ma una conseguenza a lungo termine della sostituzione non bilanciata da attività di mantenimento.

Segnali da cercare: riferimenti a incapacità («non riesco più a... senza»), a perdita di autonomia («se non ho l'AI, sono bloccato»), o a erosione («prima lo facevo, ora non ricordo più come»). Attenzione: la dipendenza è spesso descritta in modo retrospettivo, non in tempo reale.

Perché distinguerli cambia tutto

Le tre categorie portano a conclusioni pratiche molto diverse. Se riconosciamo un potenziamento, possiamo usare l'AI per amplificare le nostre capacità. Se identifichiamo una sostituzione, possiamo decidere consapevolmente se delegare e come mantenere la possibilità di riprendere la funzione. Se rileviamo una dipendenza, possiamo intervenire con attività di «manutenzione cognitiva». Un testo può descrivere uno, due o tutti e tre i meccanismi. Riconoscere quale è in atto, e in quale contesto, è il lavoro critico che questo modulo ti insegna a fare.

Le tre categorie all'opera, con testi reali

I quattro esempi che seguono mostrano le tre categorie in frasi simili a quelle che trovi davvero in articoli, libri e dichiarazioni. Per ognuno è indicata la categoria e viene spiegato esattamente dove sta il problema, o perché invece funziona bene. Leggili nell'ordine prima di passare all'esercizio.

Esempio 1, Potenziamento
Potenziamento
«Uso l'AI per generare una prima bozza di email, ma la revisiono sempre personalmente per adattare tono, contenuto e contesto. Questo mi libera tempo per concentrarmi sulla strategia della comunicazione, senza delegare la responsabilità del messaggio.»

Questa è una descrizione nel registro del potenziamento. L'AI viene usata per un compito routinario (bozza iniziale), ma l'utente mantiene il controllo sulle decisioni di valore (tono, contenuto, contesto). I segnali sono chiari: distinzione tra compito delegato e compito mantenuto («genero una bozza, ma revisiono io»), riferimento alla competenza richiesta («adattare tono e contesto»), consapevolezza della responsabilità («senza delegare la responsabilità»). È l'uso più consapevole dello strumento.

Esempio 2, Sostituzione
Sostituzione
«Da quando uso l'AI per scrivere i report, non li faccio più io: inserisco i dati e l'AI genera il testo finale. È più veloce e il risultato è sempre professionale.»

Questa è una descrizione nel registro della sostituzione. La funzione «strutturare un report» viene stabilmente delegata allo strumento. Non c'è necessariamente un problema: la delega può essere efficiente. Il punto critico è l'assenza di riferimenti a revisione o mantenimento della capacità («non li faccio più io», «il risultato è sempre professionale» senza menzione di validazione). Se l'utente non sa più produrre un report senza AI, la sostituzione potrebbe evolvere in dipendenza.

Esempio 3, Dipendenza (Erosione)
Dipendenza
«Prima sapevo strutturare un argomento in modo chiaro. Ora, se devo scrivere senza l'AI, mi blocco: non ricordo più come organizzare le idee in una sequenza logica. È come se avessi perso un muscolo che non alleno più.»

Questa è una descrizione nel registro della dipendenza. L'utente riconosce retrospettivamente una perdita di capacità («prima sapevo», «ora mi blocco») dovuta alla mancanza di pratica («un muscolo che non alleno più»). I segnali sono chiari: riferimento temporale che evidenzia il cambiamento («prima/ora»), descrizione dell'incapacità attuale («mi blocco», «non ricordo più»), metafora dell'erosione («perso un muscolo»). Questa categoria è spesso descritta in modo retrospettivo, perché la dipendenza si manifesta quando si tenta di agire senza lo strumento.

Esempio 4, Mix consapevole (potenziamento con prevenzione della dipendenza)
Potenziamento + Prevenzione
«Uso l'AI per accelerare la ricerca di fonti, ma mi impongo di scrivere sempre a mano almeno un paragrafo al giorno, anche quando potrei delegare. Così mantengo la capacità di strutturare un argomento senza supporti esterni, mentre uso lo strumento per compiti ripetitivi.»

Questo è un esempio di uso consapevole che combina potenziamento e prevenzione della dipendenza. L'utente delega compiti routinari («ricerca di fonti») ma mantiene attività di «manutenzione cognitiva» («scrivere a mano almeno un paragrafo al giorno») per preservare la capacità di base. I segnali sono chiari: distinzione tra compiti delegati e mantenuti, riferimento esplicito alla prevenzione («così mantengo la capacità»), consapevolezza del rischio di erosione. È il registro più strategicamente informato.

Parti neutre

Nel testo dell'esercizio ci sono anche passaggi descrittivi e di transizione che non appartengono a nessuna delle tre categorie. Riconoscerli è parte del lavoro: non ogni frase che menziona l'uso dell'AI è un'affermazione classificabile. Descrizioni tecniche neutre, definizioni, o posizioni riportate senza essere sostenute dall'autore del testo non richiedono un'etichetta.

I tre criteri da usare nell'esercizio

Prima di passare all'esercizio, rileggi le tre categorie in versione operativa, come criteri da applicare durante la lettura. Ogni parte evidenziata nel testo dell'esercizio appartiene in modo netto a una sola di esse.

Potenziamento L'AI libera tempo o risorse cognitive per compiti ad alto valore, richiedendo una competenza pregressa per essere usata efficacemente.

Segnali da cercare: verbi come «libera», «amplifica», «supporta», «consente di concentrarsi su»; riferimenti espliciti alla competenza richiesta («per usare bene questo strumento serve...»); distinzione tra compito delegato e compito mantenuto («delego la bozza, ma revisiono io il contenuto»). Il potenziamento presuppone che l'utente resti al centro del processo decisionale.

Sostituzione Una funzione cognitiva o operativa viene stabilmente delegata allo strumento e non è più praticata dall'umano.

Segnali da cercare: verbi come «delega», «affida», «lascia fare a»; assenza di riferimenti a revisione o controllo umano («l'AI scrive il report», senza menzione di validazione); normalizzazione della delega («ormai lo fa sempre l'AI»). La sostituzione non è necessariamente negativa, ma richiede consapevolezza e possibilità di ripresa della funzione.

Dipendenza (Erosione) L'incapacità progressiva di compiere un'azione senza lo strumento, dovuta alla mancanza di pratica.

Segnali da cercare: riferimenti a incapacità («non riesco più a... senza»), a perdita di autonomia («se non ho l'AI, sono bloccato»), o a erosione («prima lo facevo, ora non ricordo più come»). Attenzione: la dipendenza è spesso descritta in modo retrospettivo, non in tempo reale, perché si manifesta quando si tenta di agire senza lo strumento.

Differenza dalla sostituzione: la sostituzione è una scelta consapevole di delega; la dipendenza è una perdita di capacità che limita la scelta.

Parti neutre

Nel testo dell'esercizio ci sono anche passaggi descrittivi e di transizione che non appartengono a nessuna delle tre categorie. Riconoscerli è parte del lavoro: non ogni frase che menziona l'uso dell'AI è un'affermazione classificabile.

Prima di passare all'esercizio

Qual è la differenza tra «delego all'AI perché è più efficiente» (sostituzione) e «non riesco più a farlo senza l'AI» (dipendenza)? Prova a spiegare con un esempio concreto della tua esperienza: quando la delega è una scelta consapevole e quando diventa una limitazione?

Analizza il testo: usa i pulsanti per evidenziare

Leggi il testo seguente per intero, senza usare ancora i pulsanti. Poi rileggi una seconda volta attivando un pulsante alla volta. Il testo analizza il rapporto tra uso dell'AI e capacità cognitive, distinguendo tra potenziamento, sostituzione e dipendenza.

Ogni parte evidenziata appartiene in modo netto a una sola categoria. Non ci sono casi volutamente ambigui.

Testo argomentativo, Interattivo
Potenziamento
Sostituzione
Dipendenza
Neutro (non evidenziato)

Nel dibattito sull'impatto cognitivo dell'AI, le posizioni tendono a polarizzarsi: c'è chi vede solo opportunità di potenziamento e chi teme solo rischi di erosione. La realtà è più articolata: lo stesso strumento può avere effetti diversi a seconda di come viene usato, da chi e in quale contesto.


Molti professionisti usano l'AI per generare bozze iniziali di documenti, liberando tempo per concentrarsi sulla revisione strategica, sull'adattamento al contesto e sulla validazione dei contenuti. In questi casi, lo strumento amplifica la capacità umana: l'utente mantiene il controllo decisionale e usa l'AI per compiti routinari, richiedendo però una competenza pregressa per valutare e adattare l'output.


Altri utenti delegano stabilmente all'AI funzioni come la strutturazione di argomenti, la sintesi di testi o la generazione di codice, senza prevedere momenti di revisione critica o di mantenimento della capacità. Questa sostituzione può essere efficiente nel breve termine, ma solleva una domanda cruciale: se domani lo strumento non fosse disponibile, l'utente sarebbe ancora in grado di svolgere quella funzione?


Il rischio emerge quando la sostituzione diventa sistematica e non bilanciata.


Alcuni utenti riferiscono di non riuscire più a strutturare un argomento, sintetizzare un testo o scrivere codice senza l'assistenza dell'AI, descrivendo una sensazione di «blocco» o «vuoto» quando tentano di agire senza lo strumento. Questa non è una critica all'AI in sé, ma il riconoscimento retrospettivo di un'erosione di capacità dovuta alla mancanza di pratica, un fenomeno noto in psicologia cognitiva come «skill atrophy».


Studi recenti suggeriscono che l'effetto cognitivo dell'AI è contingente: può potenziare chi ha già competenze di base e usa lo strumento in modo selettivo, mentre rischia di erodere capacità se usato come sostituto della pratica senza attività di mantenimento. La differenza non sta nello strumento, ma nell'interazione tra strumento, utente e compito.


In contesti educativi, la delega acritica all'AI per compiti come la risoluzione di problemi o la stesura di saggi può sostituire l'apprendimento attivo, riducendo le opportunità di sviluppare competenze di base attraverso la pratica guidata. Per questo, molti educatori raccomandano di usare l'AI come supporto alla riflessione, non come sostituto del processo di apprendimento.


La prevenzione della dipendenza non richiede di rifiutare l'AI, ma di integrare momenti di «manutenzione cognitiva»: esercitarsi regolarmente a svolgere compiti senza supporti esterni, anche quando si potrebbe delegare, per preservare la capacità di agire in autonomia quando necessario. Questa strategia combina l'efficienza della delega con la resilienza della competenza mantenuta.


Nel complesso, imparare a distinguere tra potenziamento, sostituzione e dipendenza è il terzo passo per sviluppare una competenza critica stabile, trasferibile a molti altri ambiti del discorso pubblico, non solo all'AI.

Come usare i pulsanti

Attiva un pulsante alla volta. Leggi tutto il testo con quel filtro attivo prima di passare al successivo. Le parti non evidenziate in nessuna modalità sono neutre: descrizioni, transizioni, o posizioni riportate senza essere sostenute dall'autore del testo.

Cosa hai visto, e cosa cambia adesso

Hai lavorato su un testo costruito per essere analizzato. Le domande che seguono non hanno una risposta esatta: chiedono di ragionare sui meccanismi, non di classificare correttamente ogni frase.

Nel testo hai trovato due esempi di sostituzione: uno descrive la delega di funzioni come «strutturare argomenti» senza revisione, l'altro menziona la delega acritica in contesti educativi. Sono due facce della stessa dinamica, o c'è una differenza importante tra sostituzione professionale e sostituzione nell'apprendimento? Come cambia la tua valutazione a seconda del contesto?

Quale delle tre categorie ti è risultata più difficile da riconoscere nel testo? Era difficile per la forma delle frasi, per il contenuto, o perché somigliava a un'altra categoria? Prova a capire da dove veniva l'esitazione, e se quella stessa esitazione potrebbe capitarti valutando il tuo uso personale dell'AI, fuori da questo contesto didattico.

Quando un testo descrive la «manutenzione cognitiva» come strategia per prevenire la dipendenza (come nell'ultimo paragrafo evidenziato), ti sembra una soluzione praticabile nella vita reale? Quali ostacoli potresti incontrare nel provare a integrare momenti di pratica senza supporti esterni nelle tue routine? E quali benefici ti aspetteresti?

La tua osservazione finale

Pensa a un'attività in cui usi regolarmente l'AI: scrivere, studiare, organizzare, creare, programmare. Riesci a identificare almeno un passaggio in cui era presente una delle tre categorie che hai appena studiato? Descrivi quel passaggio e prova a dire quale categoria riconosci adesso, e se questa consapevolezza cambia il modo in cui vorresti usare lo strumento in futuro.

Da dove vengono queste idee

Le tre categorie che hai usato in questo modulo vengono da ricerche su cognizione distribuita, «cognitive offloading» e «skill atrophy». I testi che seguono sono la base di questo modulo. Non devi leggerli tutti, ma se qualcosa ti ha incuriosito, qui puoi partire. Per chi vuole un punto di accesso immediato, il saggio di Risko & Gilbert (2016) è particolarmente chiaro nel distinguere tra delega strategica e erosione di capacità.

  • Risko, E. F., & Gilbert, S. J. (2016). Cognitive offloading. Trends in Cognitive Sciences, 20(9), 676–688. [Revisione teorica su come e perché delegiamo compiti cognitivi a strumenti esterni, e con quali conseguenze.] https://doi.org/10.1016/j.tics.2016.07.002
  • Carr, N. (2010). The Shallows: What the Internet Is Doing to Our Brains. W. W. Norton & Company. [Analisi accessibile degli effetti cognitivi della delega a strumenti digitali, con focus su attenzione e memoria.]
  • Clark, A., & Chalmers, D. (1998). The extended mind. Analysis, 58(1), 7–19. [Fondamentale per comprendere come strumenti esterni possano diventare parte del nostro sistema cognitivo, con implicazioni per il potenziamento e la dipendenza.] https://doi.org/10.1093/analys/58.1.7
  • Bongard, J., & Levin, M. (2024). Living machines: The future of bio-inspired robotics and AI. Science, 383(6685), 832–837. [Esplora come l'integrazione tra capacità umane e strumenti artificiali possa essere progettata in modo consapevole.] https://doi.org/10.1126/science.adn7037
  • Metzinger, T. (2024). The Elephant and the Blind: The Experience of Consciousness, Why We Need a New Culture of Consciousness. MIT Press. [Riflessione filosofica su come le tecnologie cognitive trasformano l'esperienza soggettiva e la responsabilità epistemica.]
  • Wolf, M. (2018). Reader, Come Home: The Reading Brain in a Digital World. Harper. [Analizza come i cambiamenti nelle pratiche di lettura influenzino le capacità cognitive di base, con implicazioni per l'uso dell'AI nella scrittura e nello studio.]
  • Bavelier, D., & Davidson, R. J. (2024). Attention and the Digital Age: What Science Tells Us About Focus in a Distracted World. MIT Press. [Sintesi aggiornata della ricerca su attenzione, multitasking e uso di strumenti digitali, con raccomandazioni pratiche.]

L'AI non è né salvifica né apocalittica per le nostre capacità. È uno strumento. La domanda centrale non è «l'AI mi rende più intelligente?», ma «in questo contesto, sto usando l'AI per potenziare una capacità che possiedo, per delegare consapevolmente una funzione, o sto rischiando di erodere una competenza per mancanza di pratica?».