PERCORSO · CONCETTI CHIAVE, CONFINI MOBILI

Robot
La macchina che si presenta come agente

Un robot sembra una macchina che agisce al posto nostro. È invece un termine che copre oggetti tecnologici radicalmente diversi, dal braccio meccanico che salda carrozzerie all'algoritmo che risponde alle email, accomunati solo da una promessa: fare qualcosa in modo autonomo. Capire cosa significa davvero "autonomo", e in che misura, è il lavoro di questo modulo.

PRIMA DI INIZIARE

  • Nelle prime sezioni analizzerai perché il termine "robot" raggruppa oggetti molto diversi e imparerai a scomporlo in tre dimensioni indipendenti. Poi applicherai questo strumento a un testo giornalistico realistico.
  • Tempo stimato: 35–50 minuti in una sola sessione.

Un termine che descrive troppe cose diverse

Nel linguaggio corrente, il termine robot viene applicato a oggetti tecnologici molto diversi: il braccio meccanico che assembla automobili in una fabbrica, il veicolo senza pilota che consegna pacchi, il software che risponde automaticamente alle email di un servizio clienti, il dispositivo che aspira il pavimento di casa, il sistema chirurgico telecomandato che assiste un medico in sala operatoria, il personaggio androide che accoglie i visitatori in un museo. In tutti questi casi si parla di "robot", ma le strutture tecniche, i livelli di autonomia e le conseguenze pratiche per le persone che li usano, o che lavorano accanto a loro, sono radicalmente diverse.

Il termine ha un'origine letteraria precisa: fu introdotto nel 1920 dal drammaturgo ceco Karel Čapek nel testo teatrale R.U.R., Rossum's Universal Robots, in cui indicava esseri artificiali creati per lavorare al posto degli umani. La parola deriva dal ceco robota, che significa lavoro faticoso, corvée. Da quel momento in poi, "robot" ha attraversato decenni di fantascienza, dai film degli anni Cinquanta a 2001: Odissea nello spazio, da Terminator a Wall-E, acquisendo un peso simbolico enorme, carico di aspettative e di paure, prima ancora che di contenuto tecnico preciso.

Negli stessi decenni, gli ingegneri hanno sviluppato definizioni operative molto più restrittive. Per la robotica come disciplina tecnica, un robot è tipicamente un sistema in grado di percepire l'ambiente circostante attraverso sensori, elaborare le informazioni ricevute e agire fisicamente su quell'ambiente in modo programmato o adattivo. Questa definizione esclude molti sistemi che nel linguaggio comune vengono chiamati robot, come i chatbot, cioè i programmi che simulano una conversazione scritta, e include macchine che raramente immaginiamo quando sentiamo la parola, come i sistemi automatici di controllo industriale.

La parola "robot" non è neutrale. Evocare un agente, qualcosa che agisce, che decide, che opera nel mondo, suggerisce intenzionalità e autonomia. Ma ogni sistema che chiamiamo robot esegue istruzioni scritte da esseri umani, entro margini definiti da esseri umani, per scopi scelti da esseri umani. La distanza tra questa realtà tecnica e l'immagine culturale del robot è uno dei principali ostacoli alla comprensione del tema.

Il problema definitorio ha conseguenze pratiche immediate. Classificare un sistema come "robot autonomo" o come "strumento automatizzato" o come "sistema di supporto alle decisioni umane" determina quale insieme di norme si applica, chi è responsabile in caso di errore o danno, e quali diritti hanno le persone che interagiscono con il sistema. L'Unione Europea ha affrontato questo problema direttamente nell'AI Act, approvato nel 2024, che stabilisce categorie di rischio differenziate per i sistemi di intelligenza artificiale, molti dei quali sono componenti essenziali dei robot moderni, con obblighi diversi a seconda del livello di autonomia e del contesto d'uso.

Prima di continuare

Elenca tre oggetti o sistemi che chiameresti "robot" nella vita quotidiana o in un contesto che conosci. Per ciascuno, prova a indicare: cosa percepisce dall'ambiente esterno, quali decisioni prende in autonomia, e chi è responsabile se qualcosa va storto.

Tre assi per analizzare qualsiasi sistema robotico

Invece di cercare una definizione unica, è più utile descrivere ogni sistema robotico lungo tre dimensioni indipendenti. Ciascuna è un continuum tra due estremi: ogni sistema reale occupa una posizione specifica su ciascuno dei tre assi, e quella posizione può variare indipendentemente dalle altre due. Lo stesso sistema può avere un'autonomia decisionale molto alta e un'interazione fisica molto limitata; oppure agire direttamente sul corpo umano e avere margini di scelta quasi nulli. Queste combinazioni non sono contraddizioni: sono configurazioni tecniche che producono effetti molto diversi sul piano pratico, etico e normativo.

Autonomia decisionale 1
Telecomando Autonomia piena

Questa dimensione misura in che misura il sistema prende decisioni in modo indipendente, senza istruzioni dirette da un operatore umano in tempo reale. A un estremo si trovano i sistemi telecomandati: ogni movimento è il risultato di un comando umano esplicito, il sistema non fa nulla se l'operatore non agisce. All'altro estremo si trovano i sistemi a piena autonomia: il sistema percepisce l'ambiente, valuta le opzioni disponibili e sceglie un'azione senza intervento umano. La maggior parte dei sistemi reali si colloca in posizioni intermedie, con autonomia parziale: eseguono compiti predefiniti in modo indipendente, ma richiedono supervisione o intervento umano in situazioni impreviste o ad alto rischio.

Va distinta l'autonomia tecnica, la capacità del sistema di operare senza comandi diretti, dall'autonomia decisionale in senso pieno, che implicherebbe la capacità di scegliere i propri obiettivi. Nessun sistema robotico esistente possiede quest'ultima. L'autonomia tecnica può essere molto alta (un drone da ricognizione che naviga da solo) anche quando gli obiettivi del sistema sono interamente definiti dagli esseri umani che lo hanno programmato.

Presenza e interazione fisica 2
Solo digitale Contatto diretto

Questa dimensione misura in che misura il sistema ha un corpo fisico e interagisce materialmente con il mondo o con le persone. A un estremo si trovano i sistemi puramente digitali, spesso chiamati robot software o bot, che non hanno alcuna presenza fisica: elaborano dati, generano testi o immagini, prendono decisioni, ma non toccano nulla. All'altro estremo si trovano i sistemi a contatto diretto con il corpo umano: i robot chirurgici che operano all'interno del paziente, i sistemi di riabilitazione che guidano il movimento degli arti, le tute robotizzate, chiamate esoscheletri, che amplificano la forza di chi le indossa. Tra i due estremi si collocano i robot industriali (che interagiscono con oggetti, non con persone), i robot di servizio (che si muovono in ambienti umani) e i veicoli autonomi.

Questa dimensione ha implicazioni dirette sul piano della sicurezza e della responsabilità. Un sistema puramente digitale che commette un errore produce danni informativi o economici. Un sistema a contatto fisico con il corpo umano che commette un errore può causare danni fisici irreversibili. Le norme di sicurezza, i requisiti tecnici che un sistema deve rispettare prima di poter essere usato, sono significativamente più stringenti all'aumentare del contatto fisico con le persone.

Trasparenza del funzionamento 3
Scatola nera Completamente trasparente

Questa terza dimensione misura quanto sia comprensibile, per gli operatori e per le persone che interagiscono con il sistema, il modo in cui il robot arriva alle proprie decisioni o azioni. Scatola nera è l'espressione usata per indicare un sistema il cui funzionamento interno non è accessibile o comprensibile: il sistema riceve un input, produce un output, ma il percorso che porta dall'uno all'altro non è visibile né spiegabile. I sistemi basati su reti neurali profonde, la tecnologia alla base di molte applicazioni moderne di intelligenza artificiale, tendono verso questo polo. Un sistema completamente trasparente, invece, è uno in cui ogni decisione può essere ricondotta a regole esplicite e verificabili: se si verifica questa condizione, allora esegui quest'azione. Tra i due estremi esistono sistemi ibridi, progettati per fornire spiegazioni parziali delle proprie scelte.

Questa è la dimensione con le implicazioni etiche e normative più dirette. La possibilità di capire perché un sistema ha preso una certa decisione, e quindi di contestarla, correggerla o attribuire responsabilità, dipende dalla trasparenza del suo funzionamento. L'AI Act europeo introduce il concetto di spiegabilità come requisito obbligatorio per i sistemi ad alto rischio: chi viene valutato, selezionato o controllato da un sistema automatico ha il diritto di ricevere una spiegazione comprensibile della decisione che lo riguarda.

Perché le tre dimensioni sono indipendenti

Un sistema può avere autonomia decisionale molto alta, nessuna presenza fisica e funzionamento completamente opaco (un algoritmo di trading finanziario che compra e vende titoli in autonomia, basandosi su calcoli incomprensibili anche ai suoi progettisti). Oppure autonomia quasi nulla, contatto fisico diretto con il paziente e funzionamento interamente trasparente (un robot chirurgico telecomandato che esegue solo i movimenti ordinati dal chirurgo, secondo procedure documentate). Tutte le combinazioni esistono in forma concreta, e analizzarle su tre assi separati è più preciso che classificarle con un'etichetta unica.

Quattro sistemi che mettono alla prova le dimensioni

I casi che seguono applicano le tre dimensioni a esempi concreti. L'obiettivo non è classificarli definitivamente, ma mostrare che posizioni diverse sui tre assi producono strutture con caratteristiche e implicazioni radicalmente diverse, anche quando il termine usato per descriverle è lo stesso.

Caso 1, Il prototipo percepito: il robot industriale a braccio
Prototipo percepito
Un sistema meccanico con più snodi articolati, installato in una linea di produzione manifatturiera, che esegue operazioni ripetitive, saldatura, verniciatura, assemblaggio, all'interno di una zona recintata, separata dagli operatori umani.

È il caso che la maggior parte delle persone visualizza quando sente la parola "robot" in un contesto lavorativo. Le tre dimensioni restituiscono una struttura specifica: autonomia decisionale bassa o media, il sistema esegue sequenze di movimenti programmati, con scarsa capacità di adattarsi a situazioni impreviste; presenza fisica molto alta ma contatto con gli umani quasi assente, la recinzione che separa il robot dagli operatori non è accessoria ma strutturale alla sicurezza del sistema; trasparenza alta, le istruzioni che il robot esegue sono codificate in programmi leggibili e verificabili dai tecnici. Il prototipo è spesso usato come punto di riferimento nei dibattiti sull'automazione del lavoro, ma la sua struttura tecnica è molto diversa da quella dei sistemi robotici più recenti.

Caso 2, Sistema controintuitivo: il robot chirurgico
Autonomia minima · Contatto diretto con il corpo
Un sistema di strumenti chirurgici miniaturizzati, controllati a distanza da un chirurgo attraverso una console dotata di manopole e pedali, che traduce i movimenti delle mani del medico in gesti più precisi e filtrati dal tremore, all'interno del corpo del paziente.

Questo caso mostra come autonomia e presenza fisica non vadano nella stessa direzione. Il sistema ha autonomia decisionale quasi nulla: non prende nessuna decisione in modo indipendente, ogni movimento è il risultato di un'azione diretta del chirurgo. Ma ha contatto fisico diretto con il corpo del paziente, il che lo pone all'estremo più delicato della seconda dimensione. La trasparenza è alta: ogni azione del sistema è la traduzione diretta di un comando umano. Chiamarlo "robot chirurgico" evoca autonomia e sostituisce il chirurgo nell'immaginario comune, ma la struttura tecnica è quella di uno strumento di amplificazione della precisione umana, non di un agente autonomo. Questa distanza tra nome e struttura ha conseguenze concrete: la responsabilità in caso di errore rimane interamente sul chirurgo, non sul sistema.

Caso 3, Sistema controintuitivo: il bot di moderazione dei contenuti
Autonomia alta · Nessuna presenza fisica · Scatola nera
Un sistema software che analizza in modo automatico testi, immagini e video pubblicati su una piattaforma digitale, e decide in autonomia se rimuoverli, limitarne la visibilità o segnalarli a un revisore umano, processando milioni di contenuti al giorno.

Per capire la portata di questo sistema, pensa a quante volte hai sentito di un post rimosso "dall'algoritmo" senza che nessuno avesse letto effettivamente quel testo. Questo è il funzionamento concreto di un bot di moderazione. Le tre dimensioni restituiscono una struttura opposta al prototipo: autonomia decisionale molto alta, il sistema prende milioni di decisioni al giorno senza supervisione umana diretta; nessuna presenza fisica, non c'è corpo, non c'è movimento, solo elaborazione di dati; trasparenza molto bassa, i criteri esatti in base ai quali un contenuto viene rimosso o limitato non sono generalmente accessibili agli utenti, né sempre comprensibili ai progettisti stessi del sistema. Questo caso è spesso escluso dai dibattiti sulla robotica, che si concentrano sui sistemi fisici, ma ha effetti concreti sulla libertà di espressione di milioni di persone.

Caso 4, Sistema controintuitivo: il veicolo a guida autonoma
Autonomia variabile · Contatto fisico indiretto · Opacità parziale
Un'automobile dotata di sensori, telecamere e sistemi di elaborazione che le consentono di percepire la strada, gli altri veicoli e i pedoni, e di gestire in modo automatico sterzo, accelerazione e frenata, con livelli di autonomia che variano da sistemi di assistenza alla guida fino alla guida completamente autonoma senza conducente a bordo.

Questo caso è il più utile per capire perché le tre dimensioni non sono binarie ma continue. L'autonomia decisionale varia enormemente a seconda del livello tecnologico del sistema: una funzione di mantenimento della corsia è molto diversa da un'auto che guida da sola in città. La presenza fisica è indiretta, il veicolo non tocca le persone a bordo in modo chirurgico, ma in caso di incidente le conseguenze fisiche sono dirette e gravi. La trasparenza è parziale: alcune decisioni del sistema (come frenare di fronte a un ostacolo) sono comprensibili, altre (come scegliere tra due traiettorie in una situazione di emergenza) coinvolgono calcoli opachi che hanno sollevato un dibattito etico molto acceso, il cosiddetto "problema del trolley" applicato alla guida autonoma: chi decide chi proteggere quando un incidente è inevitabile?

Il confine del modello

Le tre dimensioni descrivono sistemi robotici intesi come macchine che percepiscono l'ambiente, elaborano informazioni e agiscono, fisicamente o digitalmente, in modo parzialmente autonomo. Non si applicano direttamente agli strumenti puramente meccanici senza alcuna elaborazione (un tornio, una gru a comando manuale), dove le questioni rilevanti riguardano la sicurezza fisica del lavoratore, non l'autonomia o la trasparenza del sistema. In quei contesti, altri strumenti analitici sono più appropriati.

Come riconoscere le dimensioni nei testi reali

I testi che parlano di robot, articoli giornalistici, comunicati di aziende tecnologiche, relazioni parlamentari, interviste a ricercatori, campagne pubblicitarie, contengono indicatori linguistici che permettono di collocare un sistema sulle tre dimensioni. Alcuni di questi indicatori sono descrittivi e verificabili; altri svolgono una funzione principalmente retorica, spesso quella di amplificare l'autonomia percepita del sistema (presentandolo come più indipendente e capace di quanto sia) oppure di minimizzarla (presentandolo come un semplice strumento privo di implicazioni). Distinguerli è il lavoro analitico di questo modulo.

1 Segnali sull'autonomia decisionale

Frasi che segnalano alta autonomia: "decide in autonomia", "apprende dall'esperienza", "si adatta alle condizioni", "valuta le opzioni disponibili", "reagisce in tempo reale senza intervento umano".

Frasi che segnalano bassa autonomia o controllo umano: "assiste l'operatore", "supporta la decisione del medico", "esegue le istruzioni del tecnico", "il controllo finale rimane all'essere umano", "interviene solo se autorizzato". Va verificato se queste affermazioni descrivono il funzionamento reale del sistema o se sono formule usate per ridurre la percezione di rischio.

2 Segnali sulla presenza fisica e sul rischio

Frasi che segnalano contatto diretto con le persone: "a contatto con il paziente", "indossabile", "collaborativo" (detto di robot industriali che lavorano senza recinzioni accanto agli operatori), "a bordo del veicolo", "in ambiente domestico non strutturato".

Frasi che minimizzano il rischio fisico: "completamente sicuro", "certificato", "testato in condizioni reali". Queste affermazioni non sono false in sé, ma vanno verificate: a quali standard di sicurezza si riferiscono, da chi sono stati rilasciati, e in quali condizioni operative valgono.

3 Segnali sulla trasparenza del funzionamento

Frasi che segnalano opacità: "basato su intelligenza artificiale", "rete neurale profonda", "apprende dai dati", "modello proprietario", "algoritmo brevettato". Queste espressioni non descrivono necessariamente un sistema pericoloso, ma segnalano che il funzionamento interno non è accessibile o verificabile dall'esterno.

Frasi che evocano trasparenza: "spiegabile", "auditabile" (cioè controllabile da enti indipendenti), "basato su regole esplicite", "decisioni tracciabili". Va verificato se queste affermazioni corrispondono a funzionalità tecniche effettivamente disponibili o se sono dichiarazioni di intento senza corrispondenza tecnica.

La retorica dell'umanizzazione e della disumanizzazione

Una categoria retorica particolarmente rilevante per i robot è quella dell'umanizzazione: l'attribuzione al sistema di caratteristiche proprie degli esseri umani, emozioni, intenzioni, personalità, persino diritti. Espressioni come "il robot vuole", "il sistema capisce", "la macchina sente" descrivono metaforicamente funzioni tecniche, ma producono effetti concreti: aumentano la fiducia degli utenti, riducono la percezione di rischio, e spostano implicitamente la responsabilità dal progettista al sistema. All'opposto, la retorica della disumanizzazione, "è solo un algoritmo", "non è che un programma", "non ha intelligenza vera", tende a minimizzare le implicazioni di sistemi che in realtà prendono decisioni con conseguenze reali sulla vita delle persone. Entrambe le retoriche oscurano la struttura tecnica effettiva.

Domanda di riflessione: la dimensione della trasparenza del funzionamento è quella che misura più direttamente la possibilità di attribuire responsabilità quando un sistema robotico causa un danno. Se non si capisce come un sistema è arrivato a una decisione, è molto difficile stabilire se l'errore stia nel progetto, nei dati usati per addestrarlo, nelle istruzioni date dall'operatore o in una combinazione di tutti questi fattori. In quale misura la trasparenza dovrebbe essere un requisito obbligatorio per legge, e a quali condizioni è giusto accettare sistemi opachi in cambio di prestazioni più alte?

Descrizione tecnica o funzionale Affermazione che descrive come il sistema è costruito o come funziona: quali sensori usa, quali decisioni prende, in quali condizioni opera, con quali margini di errore.

Segnali tipici: specifiche tecniche misurabili, descrizione dei componenti, indicazione del livello di autonomia, condizioni operative dichiarate, limiti del sistema. Queste affermazioni sono verificabili confrontandole con la documentazione tecnica del sistema o con valutazioni indipendenti.

Affermazione empirica con fonte Affermazione che riporta dati misurati sulle prestazioni, la diffusione o gli effetti del sistema, con indicazione della fonte o del metodo di misurazione.

Segnali tipici: tassi di errore, percentuali di precisione, confronti con prestazioni umane, dati su incidenti o malfunzionamenti, cifre sulla diffusione. Va verificato se la fonte è indipendente o prodotta dall'azienda che commercializza il sistema, e in quali condizioni i test sono stati condotti.

Retorica di umanizzazione o di minimizzazione Affermazione che attribuisce al sistema caratteristiche umane oppure che ne minimizza le implicazioni, senza dati verificabili o in contraddizione con la struttura tecnica effettiva.

Segnali tipici di umanizzazione: "il robot capisce", "impara come un bambino", "collabora come un collega", "si prende cura del paziente". Segnali di minimizzazione: "è solo uno strumento", "non decide nulla da solo", "il controllo è sempre umano". Entrambe le categorie costruiscono un'immagine del sistema che oscura le sue caratteristiche tecniche reali.

Prima di passare all'esercizio

Qual è la differenza principale tra una Descrizione tecnica o funzionale e la Retorica di umanizzazione? Costruisci un esempio di ciascuna partendo dallo stesso sistema che hai in mente, e spiega perché un lettore non attento potrebbe confonderle.

Analizza il testo: usa i pulsanti per evidenziare

Leggi il testo seguente per intero, senza usare ancora i pulsanti. Poi rileggi una seconda volta attivando un pulsante alla volta. Il testo è un articolo giornalistico fittizio pubblicato su una testata di divulgazione scientifica a proposito dell'introduzione di un sistema robotico in un reparto ospedaliero, un contesto settoriale specifico, scelto perché mescola in modo particolarmente denso le tre categorie di affermazioni che hai imparato a riconoscere.

Alcune parole tecniche usate nel testo: logistica interna ospedaliera indica il trasporto di farmaci, strumenti e campioni biologici all'interno di un ospedale; tasso di errore è la percentuale di operazioni in cui il sistema produce un risultato sbagliato o non previsto; validazione clinica è il processo attraverso cui un dispositivo medico viene testato e approvato per l'uso su pazienti reali.

Ogni elemento marcato appartiene in modo netto a una sola categoria. Non ci sono casi volutamente ambigui.

Articolo divulgativo fittizio, Interattivo
Descrizione tecnica o funzionale
Affermazione empirica con fonte
Retorica di umanizzazione o minimizzazione
Neutro (non evidenziato)

Il robot che conosce ogni corridoio


Da tre mesi, i corridoi del Policlinico Sant'Isidoro di Ferrara sono percorsi da una figura silenziosa su ruote. Si chiama ARIA, Autonomous Robotic Infrastructure Assistant, ed è già diventata parte del paesaggio quotidiano del reparto di oncologia. Gli infermieri dicono che ormai la riconoscono, che ha i suoi ritmi, le sue abitudini. Qualcuno le ha attaccato un adesivo con un sorriso sul pannello anteriore.


ARIA è un sistema di trasporto autonomo per la logistica interna ospedaliera. Pesa 120 chilogrammi, si muove a una velocità massima di 1,2 metri al secondo ed è equipaggiata con sensori LiDAR, dispositivi che misurano le distanze proiettando fasci di luce laser, e telecamere che le consentono di costruire una mappa dell'ambiente e di navigare evitando ostacoli in movimento, come carrelli e persone. Il carico viene depositato in un vano chiuso a chiave, accessibile solo al personale autorizzato tramite badge.


Secondo i dati diffusi dall'azienda produttrice, RoboMed Solutions, in diciotto mesi di test in quattro ospedali europei ARIA ha completato il 99,2% delle consegne nei tempi previsti, con un tasso di errore di percorso dello 0,3%. I dati non sono stati sottoposti a validazione clinica indipendente.


Il sistema gestisce autonomamente la pianificazione dei percorsi e la gestione delle priorità di consegna. In caso di ostacolo non superabile, ARIA si ferma e invia una notifica al coordinatore di reparto, che può sbloccare manualmente la situazione da un'applicazione sul tablet. Non è prevista la possibilità che il sistema modifichi da solo le istruzioni di consegna già assegnate dal personale.


«ARIA non sostituisce gli infermieri: li libera» dice la direttrice sanitaria del Policlinico. «Si occupa delle cose meccaniche, quelle che non richiedono intelligenza o empatia, così il personale può dedicarsi alle persone.»


Uno studio pubblicato nel 2023 sulla rivista Journal of Hospital Logistics ha analizzato l'introduzione di sistemi analoghi in undici ospedali statunitensi, rilevando una riduzione media del 23% del tempo che il personale infermieristico dedicava al trasporto interno di materiali, con una variazione molto ampia tra i diversi contesti (dal 9% al 41%). Gli autori segnalano che i risultati migliori si sono registrati negli ospedali che avevano ridisegnato i percorsi interni prima dell'introduzione del sistema.


Restano domande aperte. L'algoritmo di navigazione di ARIA è sviluppato e aggiornato direttamente da RoboMed Solutions tramite aggiornamenti software da remoto: l'ospedale non ha accesso al codice sorgente e non può verificare in modo indipendente le modifiche apportate al sistema. «È come aggiornare il telefono» minimizza il responsabile tecnico di RoboMed. «Non hai bisogno di capire come funziona il sistema operativo per usarlo bene.»

Guida all'uso dei pulsanti

Attiva un pulsante alla volta. Leggi tutto il testo con quel filtro prima di passare al successivo. Le parti non evidenziate in nessuna modalità sono parti neutre: informazioni di contesto, citazioni descrittive, elementi narrativi senza implicazioni valutative dirette.

Dove si nascondeva la tensione

Il testo è costruito in modo da mescolare tre registri distinti con una coerenza narrativa superficiale. Il tono giornalistico, apparentemente equilibrato, con dati e voci diverse, tende a far percepire le affermazioni retoriche come ugualmente fondate rispetto a quelle tecniche o empiriche.

Tensione 1, L'umanizzazione prima della descrizione tecnica

L'articolo apre con una scena di umanizzazione molto efficace: ARIA ha "ritmi" e "abitudini", gli infermieri le hanno attaccato un adesivo con un sorriso. Solo nel paragrafo successivo arriva la descrizione tecnica precisa: 120 chilogrammi, sensori LiDAR, velocità massima 1,2 m/s. La sequenza non è casuale: l'umanizzazione iniziale crea un'aspettativa favorevole che condiziona la lettura dei dati tecnici successivi. Un lettore non attento tende a conservare l'immagine del robot simpatico anche mentre legge le specifiche fredde. Invertire la sequenza, descrizione tecnica prima, scena umana dopo, produrrebbe un effetto molto diverso.

Tensione 2, Il dato con una nota scomoda in coda

Il dato sul 99,2% di consegne nei tempi previsti è presentato come affermazione empirica con fonte, ma la frase successiva, "i dati non sono stati sottoposti a validazione clinica indipendente", ne riduce drasticamente il valore probatorio. È l'azienda produttrice a fornire i dati sulle proprie prestazioni, senza verifica esterna. Questa struttura, dato impressionante seguito da nota che lo ridimensiona, è comune nei comunicati tecnico-commerciali riprodotti dalla stampa divulgativa. Il lettore frettoloso trattiene il numero (99,2%) e dimentica la nota. Il lettore attento capisce che quel numero non è ancora una certezza scientifica.

Tensione 3, La minimizzazione di un problema reale

L'ultimo paragrafo del testo contiene un'informazione strutturalmente importante, l'ospedale non ha accesso al codice sorgente del sistema e non può verificare gli aggiornamenti, immediatamente seguita da una battuta del responsabile tecnico che la minimizza: "È come aggiornare il telefono". L'analogia è retoricamente potente perché è familiare e rassicurante, ma è tecnicamente fuorviante: aggiornare un'app sul proprio telefono non ha le stesse implicazioni di modificare il software di un sistema che si muove in un reparto ospedaliero accanto ai pazienti. La minimizzazione retorica funziona qui come sostituto di una risposta tecnica che il testo non fornisce: quali controlli esistono sugli aggiornamenti? Chi verifica che non introducano errori?

Cosa hai visto, e cosa cambia adesso

Hai lavorato su un testo costruito per essere analizzato. Le domande che seguono non hanno una risposta esatta: chiedono di ragionare sui meccanismi, non di classificare correttamente le frasi.

Il testo contiene due descrizioni tecniche che riguardano aspetti diversi del sistema: il funzionamento fisico dei sensori e dei movimenti, e la gestione del software di navigazione.
Le due descrizioni operano sulla stessa dimensione o su dimensioni diverse? Quale delle due ha implicazioni più dirette per la trasparenza del funzionamento del sistema?

Nel testo compaiono due affermazioni empiriche con fonte: una prodotta dall'azienda stessa, l'altra da una rivista scientifica indipendente. Il fatto che entrambe siano classificate nella stessa categoria le rende equivalenti sul piano dell'affidabilità?
Quali elementi del testo aiutano a distinguere il peso delle due affermazioni? Perché la nota "i dati non sono stati sottoposti a validazione clinica indipendente" è rilevante e non è solo un dettaglio tecnico?

La retorica di umanizzazione compare all'inizio e alla fine del testo, in entrambi i casi in prossimità di informazioni strutturali che potrebbero generare preoccupazione nel lettore.
Perché questa posizione, retorica vicino a informazioni potenzialmente critiche, è più efficace rispetto alla stessa retorica presentata in isolamento? Quale effetto produce sul lettore che non la riconosce come tale?

La tua osservazione finale

Pensa a un sistema automatico o robotico che hai incontrato nella tua vita quotidiana, un assistente vocale, un sistema di raccomandazione di contenuti, una cassa automatica, un'app che suggerisce percorsi stradali. Scegli una delle tre dimensioni e prova a collocarla lungo il suo asse. Poi cerca un testo che parla di quel sistema, una pagina del sito del produttore, un articolo, una recensione, e identifica almeno una frase che descrive la struttura tecnica e almeno una che svolge una funzione retorica rispetto a quella stessa dimensione.

Fonti e bibliografia

I testi che seguono costituiscono la base empirica e teorica del modulo. Le voci sono organizzate in tre aree: studi sulla definizione e la classificazione dei sistemi robotici; ricerche sulle implicazioni sociali e di responsabilità; riferimento normativo europeo.

  • Siciliano, B., Sciavicco, L., Villani, L., & Oriolo, G. (2009). Robotics: Modelling, Planning and Control. Springer.
  • Testo di riferimento per la robotica come disciplina tecnica. Fornisce le definizioni operative di sistema robotico, autonomia e controllo usate dagli ingegneri, un punto di partenza utile per capire la distanza tra le definizioni tecniche e l'uso corrente del termine "robot".
  • Dautenhahn, K. (2007). Socially intelligent robots: dimensions of human-robot interaction. Philosophical Transactions of the Royal Society B, 362(1480), 679–704.
  • Studio fondativo sull'interazione tra esseri umani e robot sociali. Analizza i meccanismi attraverso cui le persone attribuiscono intenzioni e caratteristiche umane ai sistemi robotici, il meccanismo alla base di ciò che in questo modulo è chiamato retorica di umanizzazione. Rilevante per le dimensioni dell'autonomia percepita e della presenza fisica.
  • Pasquale, F. (2020). New Laws of Robotics: Defending Human Expertise in the Age of AI. Harvard University Press.
  • Analisi delle implicazioni giuridiche ed etiche della diffusione di sistemi robotici e di intelligenza artificiale in settori come la medicina, il diritto e il giornalismo. Sviluppa un argomento diretto sul perché la trasparenza del funzionamento sia un requisito non negoziabile per i sistemi che prendono decisioni con effetti sulla vita delle persone.
  • Vallor, S. (2016). Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting. Oxford University Press.
  • Riflessione filosofica sul rapporto tra tecnologia e comportamento umano, con un capitolo specifico sulla robotica e sulle conseguenze dell'automazione per la formazione del carattere e delle competenze. Offre strumenti per ragionare sulla dimensione etica dell'autonomia dei sistemi al di fuori del dibattito strettamente tecnico.
  • Parlamento Europeo e Consiglio dell'Unione Europea (2024). Regolamento (UE) 2024/1689 che stabilisce regole armonizzate sull'intelligenza artificiale (AI Act). Gazzetta Ufficiale dell'Unione Europea, L 1689.
  • Riferimento normativo diretto. Introduce un sistema di classificazione dei sistemi di intelligenza artificiale, componente essenziale di molti robot moderni, basato sul livello di rischio per le persone, con obblighi specifici in materia di trasparenza, spiegabilità e supervisione umana. Consente di verificare come le tre dimensioni del modulo si traducano in requisiti giuridici concreti.

Comprendere la natura di un robot ci aiuta a formulare meglio la domanda: non solo "è utile o pericoloso?", ma anche "chi ha deciso cosa può fare, in quali condizioni, e chi risponde quando qualcosa va storto?".