Prospettive

Analisi, narrazioni e chiavi di lettura per decodificare il dibattito sull'innovazione e il suo impatto sulla società.

Hype, miti e rischi reali dell'AI

Ogni tecnologia trasformativa porta con sé una retorica che la precede e spesso la sopravanza. Il motore a vapore fu salutato come la fine della fatica umana; l'elettricità doveva abolire la notte; internet avrebbe democratizzato il sapere e dissolto le oligarchie dell'informazione. L'intelligenza artificiale non fa eccezione, ma la scala del rumore che genera è di un ordine di grandezza superiore a qualsiasi precedente, e questo, in sé, merita riflessione prima ancora di analizzare la tecnologia.
Nel giro di pochi anni, lo spazio pubblico si è polarizzato in due liturgie simmetriche. Da un lato, i profeti della Singolarità e i CEO delle grandi tech company che parlano di AGI imminente, di sistemi che supereranno l'intelligenza umana entro il decennio, di una discontinuità civilizzatoria paragonabile alla scoperta del fuoco. Dall'altro, un coro di voci che vede nell'AI lo strumento definitivo del controllo sociale, la fine del lavoro, la macchina di sorveglianza totale. Entrambe le narrative condividono una struttura: quella del destino, dell'inevitabile, del non c'è più niente da decidere.
Questa polarizzazione viene qui trattata come una semplificazione deliberata, uno strumento analitico, non una fotografia fedele di un dibattito che contiene, ai suoi margini, posizioni ben più sfumate. Ma è la struttura dominante del discorso pubblico, ed è precisamente questa struttura che va analizzata.

studenti con dispositi tecnologici

Cosa l'AI sa fare, e cosa no

Partiamo dai fatti incontrovertibili, perché esistono. I sistemi di large language model come GPT-4, Claude o Gemini hanno dimostrato capacità che fino a cinque anni fa sarebbero parse fantascientifiche: producono codice funzionante, traducono con accuratezza superiore ai migliori software precedenti, sintetizzano documenti medici complessi, generano immagini fotorealistiche da descrizioni testuali. AlphaFold di DeepMind ha risolto il problema del ripiegamento proteico che la biologia molecolare inseguiva da cinquant'anni, un progresso reale, misurabile, con ricadute concrete sulla ricerca farmaceutica.
Queste non sono speculazioni: sono risultati verificabili, pubblicati, replicabili. Il problema non è negare questi progressi. Il problema è il salto inferenziale che molti compiono a partire da essi: dal fatto che un sistema linguistico produca testo coerente alla conclusione che "pensa", dal fatto che superi i medici in alcuni test diagnostici alla conclusione che sostituirà i medici, dal fatto che scriva codice alla conclusione che renderà obsoleti i programmatori. Ogni uno di questi salti merita resistenza epistemica, non per pessimismo difensivo, ma perché la confusione tra prestazione su benchmark e capacità generale è uno dei vizi analitici più diffusi nel dibattito corrente. Un modello linguistico non "capisce" il testo che genera nel senso in cui lo capisce un lettore umano. Produce sequenze di token statisticamente plausibili dato un contesto. In molti compiti questo basta, e basta benissimo. In altri, come il ragionamento causale genuino o l'adattamento a situazioni radicalmente nuove senza esempi di training, le limitazioni appaiono strutturali, non accidentali, anche se la storia dell'AI invita alla cautela: più di una volta, barriere ritenute fondamentali si sono rivelate transitorie.
La distinzione rimane analiticamente utile, ma va tenuta come ipotesi di lavoro, non come certezza. Non si tratta di una versione più lenta o meno efficiente dell'intelligenza umana: è un tipo diverso di processo, con forze e debolezze incommensurabili con quelle di un agente cognitivo biologico.

La strategia che alimenta l'hype

C'è un'economia politica dell'hype che non si può ignorare. Le valutazioni di OpenAI, Anthropic, Google DeepMind dipendono in parte dalla credibilità delle promesse che circolano intorno ai loro prodotti. Questo non significa che le ricerche siano fraudolente, non lo sono, e non significa nemmeno che l'incentivo si traduca automaticamente in distorsione: le pubblicazioni di questi laboratori sono sottoposte a scrutinio peer-reviewed e spesso contraddicono le narrative più ottimistiche dei loro stessi comunicati stampa. Ma esiste un incentivo strutturale a presentare i progressi nella luce più ottimistica possibile, a enfatizzare i casi d'uso che funzionano e a minimizzare quelli in cui i sistemi falliscono in modi imbarazzanti o pericolosi, e la distanza tra ricerca e comunicazione pubblica è sufficientemente documentata da giustificare attenzione critica, non sospetto sistematico.
Il caso delle "allucinazioni" è emblematico. I modelli linguistici inventano fatti con assoluta sicurezza, citano articoli inesistenti, attribuiscono sentenze mai pronunciate, descrivono eventi che non sono accaduti, e lo fanno con la stessa fluenza con cui producono contenuto accurato. Per un utente non esperto, la differenza è invisibile. Questo non è un bug marginale in attesa di patch: è una conseguenza dell'architettura stessa, che ottimizza per plausibilità linguistica, non per verità fattuale. I team di ricerca lo sanno. Il marketing che circonda i prodotti tende a relegarlo in nota a piè di pagina.

Il rischio reale e il rischio reso spettacolare

La narrazione catastrofista opera con dinamiche speculari ma ugualmente distorsive. Il rischio esistenziale dell'AI, l'ipotesi di sistemi superintelligenti che sfuggono al controllo umano e agiscono contro gli interessi dell'umanità, è preso sul serio da una minoranza di ricercatori seri, tra cui alcuni che hanno contribuito allo sviluppo dei sistemi attuali. Non è una posizione priva di fondamento intellettuale. È un rischio di lungo periodo e altamente speculativo, non un'emergenza dei prossimi anni. Quando questo scenario domina il dibattito pubblico sull'AI, come è accaduto nel 2023 con la lettera aperta per una pausa di sei mesi, rischia di distogliere attenzione e, in alcuni contesti, risorse da rischi ben più immediati e documentati: la discriminazione algoritmica nei sistemi di selezione del personale, i deepfake come strumento di disinformazione, la concentrazione di potere computazionale in poche mani.
I due livelli di preoccupazione non si escludono in linea di principio; il problema è la proporzione del peso che ricevono nel dibattito pubblico rispetto alla loro rispettiva urgenza empirica.

Le criticità

La ricercatrice Joy Buolamwini, al MIT, ha documentato con rigore come i sistemi di riconoscimento facciale commerciali abbiano tassi di errore significativamente più alti per le donne e per le persone con pelle scura, errori che, quando questi sistemi vengono usati in contesti di sicurezza o di selezione, si traducono in discriminazione concreta, non in astratto. Gli algoritmi di credit scoring utilizzati da banche e assicurazioni in molti paesi riproducono e amplificano disuguaglianze storiche perché addestrati su dati che quelle disuguaglianze le contengono.
Nessun fenomeno futuro e ipotetico: accade ora, nei tribunali e negli uffici di assunzione. Il nodo della governance è qui, non nella fantascienza. Chi decide quali dati usare per addestrare questi sistemi? Chi stabilisce quando un algoritmo è abbastanza accurato da poter essere dispiegato in un contesto ad alto rischio? Chi ha accesso ai log e alle audit trail quando qualcosa va storto?
L'Unione Europea ha risposto con l'AI Act, entrato in vigore nel 2024, che introduce una classificazione per livelli di rischio e obblighi di trasparenza e valutazione per i sistemi ad alto impatto. È una risposta imperfetta, i tempi di implementazione sono lunghi, alcune categorie di rischio restano sottodefinite, ma è un tentativo serio di ancorare la governance ai processi decisionali concreti. Gli Stati Uniti, per ora, procedono per executive order e linee guida volontarie, un approccio che lascia ampi spazi di arbitrio alle aziende.

L'impatto sul mondo del lavoro

Nessun tema polarizza il dibattito quanto l'impatto dell'AI sull'occupazione. Da un lato, studi come quelli di Goldman Sachs stimano che l'automatizzazione potrebbe esporre al rischio di sostituzione decine di milioni di posti di lavoro in Europa e Nord America nel giro di dieci anni. Dall'altro, la storia delle rivoluzioni tecnologiche mostra che la distruzione di categorie occupazionali è quasi sempre accompagnata dalla creazione di nuove, il che non esclude transizioni dolorose, soprattutto per chi non ha le risorse per riqualificarsi.
La risposta onesta è che non sappiamo quanto velocemente questa trasformazione avverrà né quali professioni resisteranno meglio al cambiamento. I lavori routinari e codificabili sono a rischio maggiore, anche i lavori cognitivi routinari, come la redazione di contratti standard o la sintesi di documenti legali. I lavori che richiedono giudizio contestuale, relazione interpersonale, adattamento a situazioni fisiche imprevedibili mostrano più resilienza. Ma questa distinzione è meno netta di come viene presentata: la maggior parte dei lavori reali contiene entrambe le componenti, e la domanda empirica rilevante è in quale proporzione.
Quel che è certo è che la distribuzione degli utili dell'automazione non è neutra. Se la produttività aumenta ma i benefici si concentrano nei detentori di capitale e nelle aziende tech, la trasformazione tecnologica alimenterà disuguaglianza invece di ridurla. Non è un destino scritto: è una scelta di politica fiscale, di regolamentazione del mercato del lavoro, di investimento pubblico in formazione.
Alcune delle leve sono già in discussione: la tassazione delle rendite da automazione, i fondi di riqualificazione professionale finanziati dai settori che beneficiano della sostituzione tecnologica, la contrattazione collettiva sull'introduzione di sistemi automatizzati nelle imprese. Nessuna di queste è una soluzione; sono direzioni di lavoro. Ma il dibattito dominante, oscillante tra entusiasmo per la crescita della produttività e panico per la disoccupazione di massa, raramente arriva a questa precisione.

Il dibattito pubblico sull'intelligenza artificiale soffre di un'allergia alla complessità che è, a sua volta, un sintomo culturale. Preferiamo la chiarezza delle narrazioni, la salvezza o la catastrofe, all'incertezza genuina di una tecnologia in rapida evoluzione, con effetti sistemici che nessuno è in grado di prevedere con affidabilità.
I policy-maker vogliono sapere cosa regolamentare; i giornalisti vogliono sapere se essere ottimisti o allarmati; i cittadini vogliono sapere se preoccuparsi.
La risposta onesta è che l'intelligenza artificiale non è né la fine della storia né il suo compimento. È uno strumento potente, distribuito in modo asimmetrico, governato da incentivi che non coincidono necessariamente con il bene comune, e soggetto a fallimenti specifici che ne limitano l'applicabilità in contesti critici. Richiede governance seria, investimento in literacy tecnica tra chi decide, e attenzione empirica ai danni che già produce, non ai mostri ipotetici del futuro, ma alle distorsioni concrete del presente.
Governare questi sistemi richiede comprensione; temerli senza studiarli non migliora la capacità di limitarne i danni. Sono conclusioni banali, ma il fatto che il dibattito dominante le ignori sistematicamente le rende ancora necessarie. L'hype passerà, come sempre. Resterà la tecnologia, con i suoi effetti reali su mercati reali, su persone reali, e con le scelte, tutt'altro che inevitabili, che avremo fatto o mancato di fare mentre eravamo distratti dalla narrativa.

Raffaele Maurici
Innovation Agency

Per approfondire

Mitchell, M. (2019). Artificial intelligence: A guide for thinking humans.

Una delle introduzioni più rigorose e intellettualmente oneste all'AI per un pubblico non tecnico. Mitchell, ricercatrice al Santa Fe Institute, analizza sistematicamente cosa i sistemi attuali sanno fare e dove i loro limiti diventano strutturali.

Marcus, G., & Davis, E. (2019). Rebooting AI: Building artificial intelligence we can trust.

Critica tecnica argomentata delle aspettative eccessive sull'AI, scritta da un ricercatore di scienze cognitive e un informatico. Utile per chi vuole approfondire le debolezze specifiche dei modelli linguistici nel ragionamento causale e nella manipolazione simbolica.

Mazzucato, M. (2018). The value of everything: Making and taking in the global economy.

Mazzucato offre gli strumenti per analizzare chi crea valore nelle economie tecnologiche e chi se ne appropria, una griglia concettuale utile per analizzare la distribuzione degli utili dell'automazione e la concentrazione del potere computazionale.

Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power.

L'analisi più sistematica del modello di business che sottende le grandi piattaforme tecnologiche. Zuboff documenta come l'estrazione e la monetizzazione dei dati comportamentali costituisca la struttura economica su cui si innesta l'attuale sviluppo dell'AI.

O'Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy.

Il testo di riferimento sulla discriminazione prodotta dagli algoritmi nei sistemi di credito, giustizia penale e selezione del personale. O'Neil documenta con casi specifici e dati quantitativi il fenomeno.

Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence.

Un'analisi delle infrastrutture materiali, politiche e sociali dell'intelligenza artificiale. Crawford esamina le supply chain fisiche, le relazioni di potere e i costi ambientali che rimangono invisibili nel dibattito pubblico.

Acemoglu, D., & Johnson, S. (2023). Power and progress: Our thousand-year struggle over technology and prosperity.

Acemoglu, tra gli economisti più citati al mondo, e Johnson riesaminano un millennio di rivoluzioni tecnologiche per argomentare che la distribuzione dei benefici dell'automazione non è mai automatica ma dipende da scelte istituzionali e politiche.

Brynjolfsson, E., & McAfee, A. (2014). The second machine age: Work, progress, and prosperity in a time of brilliant technologies.

Il testo che ha definito i termini del dibattito accademico sull'automazione cognitiva. Pur con un ottimismo oggi parzialmente ridimensionato, rimane il punto di riferimento imprescindibile per comprendere la natura dell'impatto delle tecnologie sul mondo del lavoro.