PERCORSO · CONCETTI CHIAVE, CONFINI MOBILI

Intelligenza Artificiale
Il calcolo che si presenta come pensiero

L'intelligenza artificiale sembra una mente che ragiona. È invece un termine ombrello che copre tecniche molto diverse, alcune vecchie di decenni, alcune recentissime, accomunate da una promessa: produrre risultati che, osservati dall'esterno, sembrano richiedere intelligenza. Capire cosa c'è dentro quella promessa, e cosa rimane fuori, è il lavoro di questo modulo.

PRIMA DI INIZIARE

  • Nelle prime sezioni analizzerai perché il termine "intelligenza artificiale" raggruppa oggetti molto diversi e imparerai a scomporlo in tre dimensioni indipendenti. Poi applicherai questo strumento a un comunicato istituzionale realistico.
  • Tempo stimato: 35–50 minuti in una sola sessione.

Un termine che porta con sé una metafora

Nel linguaggio corrente, il termine intelligenza artificiale viene applicato a sistemi molto diversi: il filtro antispam che classifica le email, il sistema che riconosce i volti nelle fotografie, il programma che batte i campioni mondiali di scacchi, il modello che genera testi in risposta a domande scritte, il sistema che valuta le domande di prestito bancario, il software che diagnostica tumori analizzando immagini mediche. In tutti questi casi si parla di "intelligenza artificiale", ma le tecniche sottostanti, i tipi di dati usati, i margini di errore e le conseguenze pratiche per le persone coinvolte sono radicalmente diversi.

Il termine ha una storia precisa: fu coniato nel 1956 dallo scienziato informatico John McCarthy per descrivere una nuova area di ricerca il cui obiettivo era costruire macchine capaci di simulare ogni aspetto dell'apprendimento umano. Da quel momento, il campo ha attraversato stagioni alterne, periodi di grandi promesse seguiti da periodi di delusione, chiamati "inverni dell'IA" dagli storici della disciplina, fino all'accelerazione degli ultimi quindici anni, guidata dall'aumento della potenza di calcolo, dalla disponibilità di enormi quantità di dati e dallo sviluppo di una tecnica specifica chiamata apprendimento automatico (in inglese machine learning): la capacità di un sistema di migliorare le proprie prestazioni su un compito specifico elaborando esempi, senza che le regole per eseguire quel compito vengano scritte esplicitamente da un programmatore.

Il problema è che il termine "intelligenza", scelto nel 1956 come metafora programmatica, cioè come obiettivo a cui tendere, è diventato nel tempo una descrizione del presente. Quando diciamo che un sistema "capisce" il testo, "riconosce" un oggetto, "decide" a chi concedere un prestito, stiamo usando parole che in riferimento agli esseri umani descrivono processi mentali complessi. In riferimento ai sistemi artificiali, descrivono operazioni matematiche su dati numerici. La distanza tra le due cose non è un dettaglio tecnico: è la distanza tra quello che un sistema fa davvero e quello che il linguaggio con cui lo descriviamo ci porta ad aspettarci da esso.

La parola "intelligenza" non è neutrale. Evocare una facoltà mentale, la capacità di comprendere, ragionare, imparare, suggerisce flessibilità, consapevolezza e intenzionalità. Ma ogni sistema che chiamiamo intelligente esegue trasformazioni matematiche su dati numerici, entro margini definiti dalla struttura del modello e dai dati usati per addestrarlo, per scopi scelti da esseri umani. La distanza tra questa realtà tecnica e l'immagine culturale dell'intelligenza artificiale è il principale ostacolo alla comprensione del tema, e la principale risorsa per chi vuole usare quel termine in modo strategico piuttosto che descrittivo.

Il problema definitorio ha conseguenze pratiche immediate. Classificare un sistema come dotato di "intelligenza" o come semplice "strumento di elaborazione statistica", cioè uno strumento che trova schemi ricorrenti nei dati senza capirne il significato, determina le aspettative degli utenti, le responsabilità dei produttori, e il tipo di controllo che società e istituzioni ritengono necessario esercitare su di esso. L'Unione Europea, nell'AI Act approvato nel 2024, ha preferito evitare il termine "intelligenza" nella definizione tecnica del campo, scegliendo invece di definire i sistemi rilevanti in base al tipo di output che producono e al livello di autonomia con cui operano, una scelta lessicale che riflette esattamente la difficoltà definitoria di questo modulo.

Prima di continuare

Elenca tre situazioni in cui hai interagito con un sistema che qualcuno ha chiamato "intelligenza artificiale". Per ciascuna, prova a indicare: quale compito specifico svolgeva il sistema, cosa sarebbe successo se avesse sbagliato, e chi avresti ritenuto responsabile dell'errore.

Tre assi per analizzare qualsiasi sistema di IA

Invece di cercare una definizione unica, è più utile descrivere ogni sistema di intelligenza artificiale lungo tre dimensioni indipendenti. Ciascuna è un continuum tra due estremi: ogni sistema reale occupa una posizione specifica su ciascuno dei tre assi, e quella posizione può variare indipendentemente dalle altre due. Lo stesso sistema può essere molto ristretto nel tipo di compito che sa svolgere e completamente opaco nel modo in cui produce i suoi risultati; oppure molto generale nelle sue capacità e costruito su regole del tutto trasparenti. Queste combinazioni producono effetti molto diversi sul piano pratico, etico e normativo.

Ampiezza del compito 1
Compito ristretto Capacità generale

Questa dimensione misura quanti tipi diversi di compiti un sistema è in grado di svolgere. A un estremo si trovano i sistemi a compito ristretto, chiamati in inglese narrow AI: sistemi progettati e addestrati per fare una sola cosa in modo molto preciso, classificare immagini, trascrivere audio, prevedere il prezzo di un'azione. Sono eccellenti nel compito per cui sono stati costruiti e del tutto incapaci fuori da esso. All'altro estremo si collocano i sistemi a capacità generale, chiamati general-purpose AI o modelli fondazionali: sistemi addestrati su quantità enormi di dati eterogenei che sanno svolgere un'ampia varietà di compiti, scrivere testi, tradurre, rispondere a domande, generare codice, analizzare immagini, senza essere stati addestrati specificamente per nessuno di essi. La maggior parte dei sistemi di IA che esistono oggi è di tipo ristretto; i modelli linguistici di grandi dimensioni, come quelli alla base degli assistenti conversazionali più diffusi, si collocano verso il polo generale.

La distinzione tra ristretto e generale ha implicazioni dirette sulla prevedibilità del sistema. Un sistema a compito ristretto fallisce in modo prevedibile: o sa fare quella cosa o non la sa fare. Un sistema a capacità generale può produrre risultati plausibili ma sbagliati in ambiti per cui non è stato esplicitamente valutato, un fenomeno chiamato allucinazione, cioè la produzione di affermazioni false presentate con la stessa fluenza e sicurezza di quelle corrette. Più un sistema è generale, più è difficile sapere in anticipo dove si troveranno i suoi limiti.

Origine della capacità 2
Regole esplicite Capacità apprese

Questa dimensione misura come il sistema ha acquisito la capacità di svolgere il proprio compito. A un estremo si trovano i sistemi basati su regole esplicite: un programmatore ha scritto istruzioni precise del tipo se si verifica questa condizione, allora esegui questa azione. Il sistema non impara nulla: esegue le regole che gli sono state date. I primi sistemi esperti degli anni Ottanta, programmi che simulavano il ragionamento di un medico o di un avvocato attraverso migliaia di regole scritte a mano, appartengono a questa categoria. All'altro estremo si trovano i sistemi basati su capacità apprese: il sistema non riceve regole esplicite, ma viene esposto a enormi quantità di esempi, milioni di testi, immagini, registrazioni audio, e sviluppa autonomamente rappresentazioni interne che gli consentono di generalizzare a nuovi casi. Le reti neurali profonde, la tecnologia alla base della maggior parte dei sistemi di IA moderni, appartengono a questa categoria.

Questa dimensione è strettamente connessa alla terza: i sistemi basati su regole esplicite tendono ad essere trasparenti, le regole si possono leggere e verificare, mentre i sistemi basati su capacità apprese tendono all'opacità, perché le "regole" che il sistema ha sviluppato internamente non sono scritte da nessuna parte in forma leggibile. Tuttavia le due dimensioni non si sovrappongono: esistono sistemi basati su regole implicite e molto difficili da capire, come certi sistemi di ottimizzazione, e sistemi appresi che producono spiegazioni parziali delle proprie decisioni.

Verificabilità dell'output 3
Output verificabile Output non controllabile

Questa terza dimensione misura quanto sia possibile, per un operatore umano, per un ente di controllo, o per la persona direttamente coinvolta, verificare se l'output di un sistema è corretto, e con quali conseguenze se non lo è. A un estremo si trovano i sistemi con output pienamente verificabile: il risultato è confrontabile con una risposta corretta nota, gli errori sono rilevabili in modo sistematico, e le conseguenze di un errore sono reversibili o limitate. Un sistema che classifica email come spam o non-spam può essere valutato su un campione di test, e un'email classificata erroneamente finisce nel filtro sbagliato, un inconveniente, non un danno irreversibile. All'altro estremo si trovano i sistemi il cui output non è facilmente controllabile: il risultato non ha una risposta corretta di riferimento a cui confrontarsi, gli errori sono difficili da rilevare prima che producano effetti, e le conseguenze possono essere gravi o irreversibili, come nel caso di un sistema che decide se concedere una libertà condizionale a un detenuto, o che formula una diagnosi medica.

Questa è la dimensione con le implicazioni etiche e normative più dirette. L'AI Act europeo classifica i sistemi di IA in base al livello di rischio, e il rischio cresce all'aumentare della difficoltà di verificare l'output e della gravità delle conseguenze di un errore. I sistemi ad alto rischio, secondo il regolamento, includono quelli usati in ambito medico, giudiziario, scolastico e nella gestione delle infrastrutture critiche: tutti contesti in cui un errore non verificato può avere effetti gravi e difficilmente reversibili sulle persone coinvolte.

Perché le tre dimensioni sono indipendenti

Un sistema può avere capacità molto generali, essere costruito interamente su regole esplicite e produrre output facilmente verificabile (un motore di ricerca basato su regole di indicizzazione trasparenti, con risultati confrontabili tra loro). Oppure essere ristrettissimo nel compito, basarsi su capacità apprese e produrre output non verificabile (un sistema che valuta automaticamente i curriculum vitae, addestrato su dati storici di assunzione, le cui decisioni non possono essere spiegate né contestate). Tutte le combinazioni esistono in forma concreta, e analizzarle su tre assi separati è più preciso che classificarle con un'etichetta unica.

Quattro sistemi che mettono alla prova le dimensioni

I casi che seguono applicano le tre dimensioni a esempi concreti. L'obiettivo non è classificarli definitivamente, ma mostrare che posizioni diverse sui tre assi producono strutture con caratteristiche e implicazioni radicalmente diverse, anche quando il termine usato per descriverle è lo stesso.

Caso 1, Il prototipo percepito: il modello linguistico conversazionale
Prototipo percepito
Un sistema che riceve testi scritti in linguaggio naturale e produce testi in risposta, simulando una conversazione. Capace di rispondere a domande, scrivere testi di vario genere, tradurre, riassumere, spiegare concetti, generare codice. Addestrato su una quantità enorme di testi provenienti da internet e da libri.

È il caso che la maggior parte delle persone visualizza quando sente "intelligenza artificiale" oggi. Le tre dimensioni restituiscono una struttura specifica: ampiezza molto alta, il sistema sa fare molte cose diverse, spesso in modo sorprendente; capacità interamente apprese, nessuna regola esplicita governa le risposte, che emergono dall'addestramento su miliardi di esempi testuali; output scarsamente verificabile, le risposte del sistema sono fluenti e plausibili indipendentemente dalla loro correttezza, e non esiste una risposta giusta di riferimento per la maggior parte dei compiti che il sistema è chiamato a svolgere. È precisamente questa combinazione, grande capacità apparente, meccanismo opaco, output difficile da controllare, a rendere questi sistemi allo stesso tempo utili e rischiosi in contesti dove la correttezza delle informazioni è rilevante.

Caso 2, Sistema controintuitivo: il programma di scacchi
Compito ristrettissimo · Capacità miste · Output verificabile
Un sistema che gioca a scacchi a livello superiore a qualsiasi giocatore umano. Valuta milioni di posizioni al secondo, seleziona la mossa con il punteggio più alto secondo una funzione di valutazione, e in alcuni sistemi moderni impara le proprie strategie giocando milioni di partite contro se stesso.

Questo caso è storicamente importante perché fu a lungo usato come prova dell'intelligenza artificiale: quando nel 1997 il sistema Deep Blue di IBM sconfisse il campione del mondo Garri Kasparov, molti interpretarono l'evento come una dimostrazione che le macchine potevano "pensare". Le tre dimensioni mostrano invece una struttura molto specifica: compito ristrettissimo, il sistema è completamente incapace di fare qualsiasi cosa fuori dalla scacchiera; capacità miste, i sistemi classici usavano regole esplicite, quelli moderni come AlphaZero usano capacità apprese; output pienamente verificabile, si vince o si perde, non c'è ambiguità. La lezione metodologica è precisa: eccellere in un compito ristretto con output verificabile non è evidenza di intelligenza generale, anche quando il risultato impressiona.

Caso 3, Sistema controintuitivo: il sistema di scoring del credito
Compito ristretto · Capacità apprese · Output ad alto impatto
Un sistema che analizza dati storici su comportamenti finanziari, pagamenti, acquisti, movimenti bancari, a volte dati comportamentali da app e social network, e assegna a ciascuna persona un punteggio che viene usato per decidere se concedere un prestito, a quale tasso di interesse, o per valutare l'affidabilità in altri contesti.

Per capire la portata di questo sistema, pensa che in alcuni paesi una bassa valutazione automatica può rendere impossibile affittare un appartamento, ottenere un lavoro o accedere a certi servizi, senza che la persona interessata sappia esattamente perché. Le tre dimensioni mostrano una struttura che non corrisponde all'immagine comune dell'IA: compito apparentemente ristretto, assegnare un numero, ma con conseguenze molto ampie sulla vita delle persone; capacità interamente apprese da dati storici, il che significa che il sistema riproduce e può amplificare le discriminazioni già presenti in quei dati; output di difficilissima verifica, perché non esiste una risposta giusta a cui confrontarlo, non sappiamo se la persona avrebbe davvero rimborsato il prestito. Questo caso è spesso assente nei dibattiti pubblici sull'IA, che si concentrano sui sistemi più visibili, ma ha effetti concreti su milioni di persone.

Caso 4, Sistema controintuitivo: il sistema esperto basato su regole
Compito ristretto · Regole esplicite · Alta trasparenza
Un sistema che supporta la diagnosi medica o la consulenza legale applicando migliaia di regole scritte esplicitamente da esperti del settore: se il paziente presenta questi sintomi e questi valori di laboratorio, la diagnosi più probabile è questa; se il contratto contiene questa clausola e si verifica questa condizione, si applicano queste norme.

Questo caso è spesso dimenticato nei dibattiti contemporanei sull'IA, che si concentrano quasi esclusivamente sui sistemi basati sull'apprendimento automatico. Eppure i sistemi esperti hanno una storia di cinquant'anni e sono ancora ampiamente usati in medicina, diritto e ingegneria. Le tre dimensioni mostrano una struttura quasi opposta al prototipo: compito ristretto, regole interamente esplicite, ogni decisione è ricondotta a una regola leggibile, scritta da un esperto umano, verificabile e contestabile, output relativamente controllabile, perché le regole possono essere revisionate e aggiornate da esperti. Il limite di questi sistemi è simmetrico al loro vantaggio: sono trasparenti ma rigidi, non si adattano a situazioni non previste dalle regole, e il lavoro di codificare la conoscenza degli esperti in regole esplicite è costoso e difficile da mantenere aggiornato.

Il confine del modello

Le tre dimensioni descrivono sistemi di intelligenza artificiale intesi come sistemi computazionali che producono output, classificazioni, testi, previsioni, decisioni, in modo parzialmente o totalmente automatico. Non si applicano direttamente ai sistemi di automazione puramente meccanica senza componente di apprendimento o inferenza statistica, come le linee di produzione a controllo numerico, dove le questioni rilevanti riguardano l'efficienza e la sicurezza industriale, non l'autonomia decisionale o la verificabilità dell'output. In quei contesti, altri strumenti analitici sono più appropriati.

Come riconoscere le dimensioni nei testi reali

I testi che parlano di intelligenza artificiale, comunicati stampa di aziende tecnologiche, articoli di giornale, regolamenti europei, dichiarazioni di politici, interviste a ricercatori, contengono indicatori linguistici che permettono di collocare un sistema sulle tre dimensioni. Alcuni di questi indicatori sono descrittivi e verificabili; altri svolgono una funzione principalmente retorica: amplificano la capacità percepita del sistema attribuendogli facoltà cognitive che non possiede, oppure minimizzano le sue implicazioni presentandolo come un semplice strumento neutro. Distinguerli è il lavoro analitico di questo modulo.

1 Segnali sull'ampiezza del compito

Frasi che segnalano capacità generale: "può fare qualsiasi cosa", "risolve problemi complessi in qualsiasi dominio", "supera gli esperti umani in ogni settore", "intelligenza generale artificiale". Queste affermazioni si riferiscono a capacità che nessun sistema esistente possiede, l'intelligenza generale artificiale, cioè un sistema capace di apprendere qualsiasi compito come un essere umano, rimane un obiettivo di ricerca non raggiunto.

Frasi che segnalano compito ristretto: "addestrato specificamente per", "ottimizzato per questo contesto", "funziona solo con questo tipo di dati", "non generalizza ad altri domini". Queste affermazioni descrivono la struttura reale della maggior parte dei sistemi esistenti e sono più affidabili come descrizioni tecniche, anche se possono essere usate per minimizzare la portata di un sistema le cui applicazioni sono comunque molto ampie.

2 Segnali sull'origine della capacità

Frasi che segnalano capacità apprese: "addestrato su milioni di dati", "impara dall'esperienza", "rete neurale profonda", "modello fondazionale", "basato su trasformatori", dove trasformatori è il nome di un'architettura tecnica specifica, non una metafora. Queste espressioni indicano sistemi il cui funzionamento interno non è direttamente leggibile nemmeno dai loro progettisti.

Frasi che segnalano regole esplicite: "basato su regole definite da esperti", "sistema esperto", "logica formale", "albero decisionale". Va verificato se la distinzione è reale o se il sistema combina entrambi gli approcci, i sistemi ibridi sono molto comuni nella pratica industriale.

3 Segnali sulla verificabilità dell'output

Frasi che segnalano output difficilmente verificabile: "accuratezza del 97%" senza specificare su quale insieme di dati di test e in quali condizioni; "risultati confrontabili agli esperti umani" senza indicazione del metodo di confronto; "il sistema ha già preso questa decisione" in contesti dove la decisione riguarda persone. Va sempre chiesto: verificabile da chi, con quale metodo, e con quali conseguenze se l'output è sbagliato?

Frasi che evocano controllo umano: "il sistema supporta la decisione del medico", "la decisione finale spetta sempre all'operatore", "strumento di ausilio, non di sostituzione". Va verificato se queste affermazioni descrivono il funzionamento reale del sistema o se nella pratica l'output automatico viene accettato senza verifica sistematica, il cosiddetto effetto di automazione, cioè la tendenza delle persone ad accettare le decisioni di un sistema automatico senza esaminarle criticamente.

La retorica dell'intelligenza e della svalutazione

Una categoria retorica particolarmente rilevante per l'intelligenza artificiale è quella dell'attribuzione cognitiva: l'uso di verbi e sostantivi che descrivono processi mentali umani, "capire", "ragionare", "intuire", "essere creativo", "avere buon senso", in riferimento a sistemi che eseguono operazioni matematiche su vettori numerici. L'effetto è quello di alzare le aspettative e di rendere difficile ragionare sui limiti reali del sistema. All'opposto, la retorica della svalutazione, "è solo statistica", "non capisce niente davvero", "non ha coscienza", riduce la complessità nella direzione opposta, rendendo difficile ragionare sulle implicazioni reali di sistemi che, indipendentemente da ciò che "capiscono", producono effetti concreti sulla vita delle persone. Entrambe le retoriche oscurano la struttura tecnica effettiva e le sue conseguenze pratiche.

Domanda di riflessione: la dimensione della verificabilità dell'output è quella che misura più direttamente la possibilità di attribuire responsabilità quando un sistema di IA produce un errore con conseguenze gravi. Se non è possibile stabilire se l'output è corretto prima che produca effetti, e se le conseguenze di un errore sono irreversibili, chi risponde? Il progettista del sistema, l'azienda che lo commercializza, l'operatore che lo ha adottato, o la persona che ha accettato il risultato senza verificarlo? In quale misura i diritti di spiegazione e contestazione, previsti dall'AI Act per i sistemi ad alto rischio, sono sufficienti a rispondere a questa domanda?

Descrizione tecnica o funzionale Affermazione che descrive come il sistema è costruito o come funziona: quale tecnica usa, su quali dati è stato addestrato, in quali condizioni opera, con quali margini di errore dichiarati.

Segnali tipici: specificazione dell'architettura tecnica, indicazione del tipo e della quantità di dati usati, descrizione del compito specifico, condizioni operative dichiarate, limiti espliciti del sistema. Queste affermazioni sono verificabili confrontandole con la documentazione tecnica o con valutazioni indipendenti, quando disponibili, poiché molti sistemi commerciali non pubblicano la propria documentazione tecnica completa.

Affermazione empirica con fonte Affermazione che riporta dati misurati sulle prestazioni, la diffusione o gli effetti del sistema, con indicazione della fonte o del metodo di misurazione.

Segnali tipici: percentuali di accuratezza, confronti con prestazioni umane, dati su errori o malfunzionamenti, cifre sulla diffusione. Va verificato se la fonte è indipendente o prodotta dall'azienda che commercializza il sistema, se i test sono stati condotti su dati rappresentativi della realtà operativa, e se i risultati sono stati replicati da gruppi di ricerca indipendenti.

Retorica di intelligenza o di svalutazione Affermazione che attribuisce al sistema facoltà cognitive umane, oppure che nega le sue implicazioni reali, senza dati verificabili o in contraddizione con la struttura tecnica effettiva.

Segnali tipici di intelligenza attribuita: "il sistema capisce", "ragiona come un esperto", "è creativo", "ha intuizioni", "impara come un bambino". Segnali di svalutazione: "è solo matematica", "non capisce nulla davvero", "non ha nessuna intelligenza reale". Entrambe le categorie spostano l'attenzione dalla struttura tecnica e dalle sue conseguenze pratiche verso una discussione sulla natura dell'intelligenza che, per quanto interessante, non aiuta a capire cosa il sistema fa davvero.

Prima di passare all'esercizio

Qual è la differenza principale tra una Descrizione tecnica o funzionale e la Retorica di intelligenza? Costruisci un esempio di ciascuna partendo dallo stesso sistema che hai in mente, e spiega perché un lettore non attento potrebbe confonderle. Considera anche il caso inverso: in quali situazioni la retorica di svalutazione può essere altrettanto fuorviante di quella di intelligenza attribuita?

Analizza il testo: usa i pulsanti per evidenziare

Leggi il testo seguente per intero, senza usare ancora i pulsanti. Poi rileggi una seconda volta attivando un pulsante alla volta. Il testo è un comunicato stampa istituzionale fittizio, diffuso da un'azienda che ha appena ricevuto un finanziamento pubblico per introdurre un sistema di IA nella selezione del personale della pubblica amministrazione, un contesto in cui le tre categorie di affermazioni si concentrano in modo particolarmente denso e le implicazioni per le persone coinvolte sono dirette.

Alcune espressioni tecniche usate nel testo: NLP è l'abbreviazione di natural language processing, cioè elaborazione del linguaggio naturale, la capacità di un sistema di analizzare e produrre testi; bias indica una distorsione sistematica nei risultati di un sistema, spesso dovuta a squilibri nei dati usati per addestrarlo; audit algoritmico è una verifica indipendente del funzionamento di un sistema automatico, condotta da un ente esterno all'azienda che lo ha sviluppato.

Ogni elemento marcato appartiene in modo netto a una sola categoria. Non ci sono casi volutamente ambigui.

Comunicato stampa istituzionale fittizio, Interattivo
Descrizione tecnica o funzionale
Affermazione empirica con fonte
Retorica di intelligenza o svalutazione
Neutro (non evidenziato)

QuantumSelect ottiene il finanziamento per la modernizzazione del reclutamento pubblico


L'Istituto Nazionale per l'Avanzamento Tecnologico nella Pubblica Amministrazione (INATPA) ha approvato per QuantumSelect un finanziamento di 4,2 milioni di euro nell'ambito del Piano strategico per la modernizzazione digitale dei concorsi. Il sistema sarà introdotto in via sperimentale in dodici amministrazioni centrali a partire dal prossimo anno.


QuantumSelect è la prima piattaforma capace di leggere davvero un curriculum: non si limita a cercare parole chiave, ma comprende il profilo del candidato, valuta le sue competenze reali e riconosce il potenziale che un selezionatore umano potrebbe non vedere.


Il sistema analizza i curricula in formato testuale attraverso un modello NLP addestrato su 2,3 milioni di documenti di selezione del personale pubblico raccolti tra il 2010 e il 2022. Per ciascun candidato produce un punteggio da 0 a 100 basato sulla corrispondenza tra il profilo rilevato e i requisiti del bando. I candidati con punteggio superiore a 70 vengono trasmessi alla commissione esaminatrice per la valutazione manuale; gli altri sono esclusi automaticamente senza ulteriore revisione.


Secondo i test interni condotti da QuantumSelect su un campione di 18.000 candidature storiche, il sistema concorda con le valutazioni delle commissioni umane nell'83% dei casi. L'azienda dichiara che un audit algoritmico indipendente è previsto per il secondo anno di sperimentazione.


Sul piano della trasparenza, i candidati esclusi automaticamente ricevono una notifica che indica il punteggio ottenuto ma non i criteri specifici che hanno determinato l'esclusione, in quanto tali criteri derivano dal modello addestrato e non sono riconducibili a regole esplicitamente formulabili. È prevista la possibilità di richiedere un riesame manuale entro trenta giorni, a pagamento di una marca da bollo da 16 euro.


«Questo sistema non discrimina: non vede il genere, l'età, il nome, la provenienza geografica. Vede solo le competenze» ha dichiarato la CEO di QuantumSelect. «Per la prima volta, la pubblica amministrazione potrà selezionare i migliori davvero, senza pregiudizi.»


Una ricerca pubblicata nel 2023 sull'uso di sistemi analoghi in dodici paesi europei ha rilevato che i modelli NLP addestrati su dati storici di selezione tendono a replicare le distribuzioni di genere e di provenienza geografica presenti nei dati di addestramento, con una probabilità significativamente più bassa di assegnare punteggi alti a candidati con percorsi formativi atipici rispetto al profilo storico dei selezionati (fonte: AlgorithmWatch, Automated Hiring in European Public Administrations, 2023).


QuantumSelect ha già siglato accordi con tre regioni e si prepara a estendere il servizio al settore privato. Il futuro della selezione del personale è intelligente, equo e veloce. QuantumSelect è quel futuro.

Guida all'uso dei pulsanti

Attiva un pulsante alla volta. Leggi tutto il testo con quel filtro prima di passare al successivo. Le parti non evidenziate in nessuna modalità sono parti neutre: informazioni di contesto, dati fattuali non controversi, elementi narrativi senza implicazioni valutative dirette.

Dove si nascondeva la tensione

Il testo è costruito in modo da mescolare tre registri distinti con la coerenza formale di un documento istituzionale. Il tono ufficiale, con cifre, percentuali e riferimenti normativi, tende a far percepire le affermazioni retoriche come ugualmente fondate rispetto a quelle tecniche o empiriche.

Tensione 1, "Comprende" contro "produce un punteggio"

Il secondo paragrafo del testo attribuisce al sistema la capacità di "leggere davvero", "comprendere", "valutare competenze reali" e "riconoscere il potenziale". Il paragrafo successivo descrive invece la struttura tecnica reale: un modello NLP che produce un punteggio da 0 a 100 basato sulla corrispondenza tra testo e requisiti. Le due descrizioni non sono dello stesso oggetto: la prima descrive un sistema che capisce le persone; la seconda descrive un sistema che confronta testi. La distanza tra le due non è una questione di stile comunicativo, ha implicazioni dirette su ciò che ci si può aspettare dal sistema, su come contestarne le decisioni e su chi è responsabile degli errori. Un sistema che "comprende" porta con sé aspettative di flessibilità e buon senso; un sistema che confronta testi può essere sistematicamente cieco a tutto ciò che non è rappresentato nel modo atteso nel formato testuale del curriculum.

Tensione 2, L'83% e ciò che non dice

Il dato sull'83% di concordanza con le commissioni umane è presentato come affermazione empirica con fonte, ma richiede una lettura attenta su almeno tre livelli. Primo: la fonte è interna, è l'azienda stessa a condurre e pubblicare il test, senza verifica indipendente. Secondo: "concordare con le commissioni umane" significa che il sistema replica le scelte delle commissioni passate, ma se quelle scelte erano distorte da pregiudizi, il sistema li replica fedelmente. L'accordo con un giudice umano non è una misura di correttezza: è una misura di somiglianza. Terzo: l'audit indipendente è "previsto per il secondo anno", il sistema sarà quindi già operativo e avrà già escluso migliaia di candidature prima che qualsiasi verifica esterna sia condotta.

Tensione 3, "Non discrimina" e la ricerca che dice il contrario

La dichiarazione della CEO, "questo sistema non discrimina: non vede il genere, l'età, il nome", è la forma più comune di retorica di intelligenza nel contesto dell'IA applicata alle persone: l'affermazione che un sistema automatico sia neutro perché non "vede" le categorie discriminatorie. Il testo stesso la contraddice immediatamente nel paragrafo successivo: la ricerca di AlgorithmWatch documenta che i modelli NLP addestrati su dati storici replicano le distribuzioni di genere e provenienza geografica presenti in quei dati, non perché "vedano" esplicitamente quelle caratteristiche, ma perché le caratteristiche linguistiche dei curricula sono correlate con esse. Non vedere il genere nel testo di input non significa non replicarne gli effetti nell'output. Questa tensione è forse la più importante del testo: la retorica della neutralità dell'algoritmo è smentita dalla struttura tecnica del sistema stesso.

Cosa hai visto, e cosa cambia adesso

Hai lavorato su un testo costruito per essere analizzato. Le domande che seguono non hanno una risposta esatta: chiedono di ragionare sui meccanismi, non di classificare correttamente le frasi.

Il testo contiene due descrizioni tecniche che riguardano aspetti diversi del sistema: il funzionamento del modello NLP e la gestione delle esclusioni automatiche.
Le due descrizioni operano sulla stessa dimensione o su dimensioni diverse? Quale delle due ha implicazioni più dirette per la verificabilità dell'output e per i diritti delle persone coinvolte?

Nel testo compaiono due affermazioni empiriche con fonte: una prodotta dall'azienda stessa, l'altra da un ente di ricerca indipendente. Le due affermazioni si contraddicono parzialmente.
In che modo la posizione nel testo, la ricerca indipendente è nell'ultimo paragrafo prima della chiusura retorica, influisce sulla probabilità che un lettore frettoloso la legga e la colleghi alla dichiarazione della CEO nel paragrafo precedente? Quale funzione svolge questa sequenza?

Questo modulo ha introdotto sia la retorica di intelligenza attribuita che quella di svalutazione. Nel testo di esercizio compare solo la prima.
Prova a costruire un esempio di retorica di svalutazione riferita allo stesso sistema QuantumSelect: come suonerebbe, e quali implicazioni nasconderebbe? In quale tipo di testo, un comunicato sindacale, un'interpellanza parlamentare, un articolo critico, sarebbe più probabile trovarla?

La tua osservazione finale

Pensa a un sistema che hai usato o di cui hai letto negli ultimi mesi e che veniva descritto come "intelligenza artificiale". Scegli una delle tre dimensioni e prova a collocarla lungo il suo asse sulla base delle informazioni che hai. Poi cerca un testo che parla di quel sistema, un comunicato, un articolo, una pagina del sito del produttore, e identifica almeno una frase che descrive la struttura tecnica e almeno una che svolge una funzione retorica rispetto a quella stessa dimensione. Se trovi che la retorica va nella direzione opposta rispetto ai casi analizzati in questo modulo, cioè verso la svalutazione invece che verso l'intelligenza attribuita, segnalalo e prova a spiegare perché.

Fonti e bibliografia

I testi che seguono costituiscono la base empirica e teorica del modulo. Le voci sono organizzate in tre aree: studi sulla definizione e il funzionamento dei sistemi di intelligenza artificiale; ricerche critiche sulle implicazioni sociali e sui rischi di discriminazione; riferimento normativo europeo.

  • Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4a ed.). Pearson.
  • Il manuale di riferimento per l'intelligenza artificiale come disciplina tecnica. Fornisce le definizioni operative, agente, razionalità, apprendimento, inferenza, usate dagli specialisti del settore, e consente di confrontarle con l'uso corrente del termine nel linguaggio pubblico. La quarta edizione include un'ampia sezione sui sistemi di apprendimento automatico e sui loro limiti.
  • Mitchell, M. (2019). Artificial Intelligence: A Guide for Thinking Humans. Farrar, Straus and Giroux.
  • Introduzione accessibile e critica all'intelligenza artificiale contemporanea, scritta da una ricercatrice del settore. Analizza le promesse e i limiti reali dei sistemi moderni, con particolare attenzione alla distanza tra le capacità percepite e quelle reali. Utile per contestualizzare tutte e tre le dimensioni del modulo, con esempi tratti dalla ricerca corrente.
  • O'Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishers.
  • Analisi dei sistemi algoritmici, molti dei quali oggi sarebbero classificati come sistemi di IA, usati in ambiti come l'istruzione, la giustizia penale, il credito e il lavoro. Documenta con casi concreti come la combinazione di compito ristretto, capacità apprese da dati storici e output non verificabile produca effetti discriminatori sistematici. Direttamente rilevante per la dimensione della verificabilità dell'output e per il caso QuantumSelect dell'esercizio.
  • Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610–623.
  • Articolo di ricerca che analizza i rischi dei modelli linguistici di grandi dimensioni, il tipo di sistema descritto nel caso 1 di questo modulo. Introduce il concetto di "pappagallo stocastico" per descrivere sistemi che producono testo plausibile senza comprensione, e discute le implicazioni ambientali, sociali e cognitive di questi sistemi. Rilevante per la dimensione dell'ampiezza del compito e per la retorica dell'intelligenza attribuita.
  • Parlamento Europeo e Consiglio dell'Unione Europea (2024). Regolamento (UE) 2024/1689 che stabilisce regole armonizzate sull'intelligenza artificiale (AI Act). Gazzetta Ufficiale dell'Unione Europea, L 1689.
  • Riferimento normativo diretto. Introduce un sistema di classificazione dei sistemi di IA in base al livello di rischio, con obblighi specifici in materia di trasparenza, spiegabilità, supervisione umana e diritti delle persone coinvolte. I sistemi di selezione automatica del personale rientrano nella categoria ad alto rischio e sono soggetti agli obblighi più stringenti. Consente di verificare come le tre dimensioni del modulo si traducano in requisiti giuridici concreti, e di valutare se il sistema QuantumSelect dell'esercizio li soddisferebbe.

Comprendere la natura di sistema di intelligenza artificiale ci aiuta a mattere a fuoco meglio la domanda: non più "è intelligente o no?", ma "cosa sa fare davvero, come lo ha imparato, e chi verifica che lo faccia bene?".