Un termine che descrive troppe cose diverse
Nel linguaggio corrente, il termine robot viene applicato a oggetti tecnologici molto diversi: il braccio meccanico che assembla automobili in una fabbrica, il veicolo senza pilota che consegna pacchi, il software che risponde automaticamente alle email di un servizio clienti, il dispositivo che aspira il pavimento di casa, il sistema chirurgico telecomandato che assiste un medico in sala operatoria, il personaggio androide che accoglie i visitatori in un museo. In tutti questi casi si parla di "robot", ma le strutture tecniche, i livelli di autonomia e le conseguenze pratiche per le persone che li usano, o che lavorano accanto a loro, sono radicalmente diverse.
Il termine ha un'origine letteraria precisa: fu introdotto nel 1920 dal drammaturgo ceco Karel Čapek nel testo teatrale R.U.R., Rossum's Universal Robots, in cui indicava esseri artificiali creati per lavorare al posto degli umani. La parola deriva dal ceco robota, che significa lavoro faticoso, corvée. Da quel momento in poi, "robot" ha attraversato decenni di fantascienza, dai film degli anni Cinquanta a 2001: Odissea nello spazio, da Terminator a Wall-E, acquisendo un peso simbolico enorme, carico di aspettative e di paure, prima ancora che di contenuto tecnico preciso.
Negli stessi decenni, gli ingegneri hanno sviluppato definizioni operative molto più restrittive. Per la robotica come disciplina tecnica, un robot è tipicamente un sistema in grado di percepire l'ambiente circostante attraverso sensori, elaborare le informazioni ricevute e agire fisicamente su quell'ambiente in modo programmato o adattivo. Questa definizione esclude molti sistemi che nel linguaggio comune vengono chiamati robot, come i chatbot, cioè i programmi che simulano una conversazione scritta, e include macchine che raramente immaginiamo quando sentiamo la parola, come i sistemi automatici di controllo industriale.
La parola "robot" non è neutrale. Evocare un agente, qualcosa che agisce, che decide, che opera nel mondo, suggerisce intenzionalità e autonomia. Ma ogni sistema che chiamiamo robot esegue istruzioni scritte da esseri umani, entro margini definiti da esseri umani, per scopi scelti da esseri umani. La distanza tra questa realtà tecnica e l'immagine culturale del robot è uno dei principali ostacoli alla comprensione del tema.
Il problema definitorio ha conseguenze pratiche immediate. Classificare un sistema come "robot autonomo" o come "strumento automatizzato" o come "sistema di supporto alle decisioni umane" determina quale insieme di norme si applica, chi è responsabile in caso di errore o danno, e quali diritti hanno le persone che interagiscono con il sistema. L'Unione Europea ha affrontato questo problema direttamente nell'AI Act, approvato nel 2024, che stabilisce categorie di rischio differenziate per i sistemi di intelligenza artificiale, molti dei quali sono componenti essenziali dei robot moderni, con obblighi diversi a seconda del livello di autonomia e del contesto d'uso.
Prima di continuare
Elenca tre oggetti o sistemi che chiameresti "robot" nella vita quotidiana o in un contesto che conosci. Per ciascuno, prova a indicare: cosa percepisce dall'ambiente esterno, quali decisioni prende in autonomia, e chi è responsabile se qualcosa va storto.
Tre assi per analizzare qualsiasi sistema robotico
Invece di cercare una definizione unica, è più utile descrivere ogni sistema robotico lungo tre dimensioni indipendenti. Ciascuna è un continuum tra due estremi: ogni sistema reale occupa una posizione specifica su ciascuno dei tre assi, e quella posizione può variare indipendentemente dalle altre due. Lo stesso sistema può avere un'autonomia decisionale molto alta e un'interazione fisica molto limitata; oppure agire direttamente sul corpo umano e avere margini di scelta quasi nulli. Queste combinazioni non sono contraddizioni: sono configurazioni tecniche che producono effetti molto diversi sul piano pratico, etico e normativo.
Questa dimensione misura in che misura il sistema prende decisioni in modo indipendente, senza istruzioni dirette da un operatore umano in tempo reale. A un estremo si trovano i sistemi telecomandati: ogni movimento è il risultato di un comando umano esplicito, il sistema non fa nulla se l'operatore non agisce. All'altro estremo si trovano i sistemi a piena autonomia: il sistema percepisce l'ambiente, valuta le opzioni disponibili e sceglie un'azione senza intervento umano. La maggior parte dei sistemi reali si colloca in posizioni intermedie, con autonomia parziale: eseguono compiti predefiniti in modo indipendente, ma richiedono supervisione o intervento umano in situazioni impreviste o ad alto rischio.
Va distinta l'autonomia tecnica, la capacità del sistema di operare senza comandi diretti, dall'autonomia decisionale in senso pieno, che implicherebbe la capacità di scegliere i propri obiettivi. Nessun sistema robotico esistente possiede quest'ultima. L'autonomia tecnica può essere molto alta (un drone da ricognizione che naviga da solo) anche quando gli obiettivi del sistema sono interamente definiti dagli esseri umani che lo hanno programmato.
Questa dimensione misura in che misura il sistema ha un corpo fisico e interagisce materialmente con il mondo o con le persone. A un estremo si trovano i sistemi puramente digitali, spesso chiamati robot software o bot, che non hanno alcuna presenza fisica: elaborano dati, generano testi o immagini, prendono decisioni, ma non toccano nulla. All'altro estremo si trovano i sistemi a contatto diretto con il corpo umano: i robot chirurgici che operano all'interno del paziente, i sistemi di riabilitazione che guidano il movimento degli arti, le tute robotizzate, chiamate esoscheletri, che amplificano la forza di chi le indossa. Tra i due estremi si collocano i robot industriali (che interagiscono con oggetti, non con persone), i robot di servizio (che si muovono in ambienti umani) e i veicoli autonomi.
Questa dimensione ha implicazioni dirette sul piano della sicurezza e della responsabilità. Un sistema puramente digitale che commette un errore produce danni informativi o economici. Un sistema a contatto fisico con il corpo umano che commette un errore può causare danni fisici irreversibili. Le norme di sicurezza, i requisiti tecnici che un sistema deve rispettare prima di poter essere usato, sono significativamente più stringenti all'aumentare del contatto fisico con le persone.
Questa terza dimensione misura quanto sia comprensibile, per gli operatori e per le persone che interagiscono con il sistema, il modo in cui il robot arriva alle proprie decisioni o azioni. Scatola nera è l'espressione usata per indicare un sistema il cui funzionamento interno non è accessibile o comprensibile: il sistema riceve un input, produce un output, ma il percorso che porta dall'uno all'altro non è visibile né spiegabile. I sistemi basati su reti neurali profonde, la tecnologia alla base di molte applicazioni moderne di intelligenza artificiale, tendono verso questo polo. Un sistema completamente trasparente, invece, è uno in cui ogni decisione può essere ricondotta a regole esplicite e verificabili: se si verifica questa condizione, allora esegui quest'azione. Tra i due estremi esistono sistemi ibridi, progettati per fornire spiegazioni parziali delle proprie scelte.
Questa è la dimensione con le implicazioni etiche e normative più dirette. La possibilità di capire perché un sistema ha preso una certa decisione, e quindi di contestarla, correggerla o attribuire responsabilità, dipende dalla trasparenza del suo funzionamento. L'AI Act europeo introduce il concetto di spiegabilità come requisito obbligatorio per i sistemi ad alto rischio: chi viene valutato, selezionato o controllato da un sistema automatico ha il diritto di ricevere una spiegazione comprensibile della decisione che lo riguarda.
Un sistema può avere autonomia decisionale molto alta, nessuna presenza fisica e funzionamento completamente opaco (un algoritmo di trading finanziario che compra e vende titoli in autonomia, basandosi su calcoli incomprensibili anche ai suoi progettisti). Oppure autonomia quasi nulla, contatto fisico diretto con il paziente e funzionamento interamente trasparente (un robot chirurgico telecomandato che esegue solo i movimenti ordinati dal chirurgo, secondo procedure documentate). Tutte le combinazioni esistono in forma concreta, e analizzarle su tre assi separati è più preciso che classificarle con un'etichetta unica.
Quattro sistemi che mettono alla prova le dimensioni
I casi che seguono applicano le tre dimensioni a esempi concreti. L'obiettivo non è classificarli definitivamente, ma mostrare che posizioni diverse sui tre assi producono strutture con caratteristiche e implicazioni radicalmente diverse, anche quando il termine usato per descriverle è lo stesso.
È il caso che la maggior parte delle persone visualizza quando sente la parola "robot" in un contesto lavorativo. Le tre dimensioni restituiscono una struttura specifica: autonomia decisionale bassa o media, il sistema esegue sequenze di movimenti programmati, con scarsa capacità di adattarsi a situazioni impreviste; presenza fisica molto alta ma contatto con gli umani quasi assente, la recinzione che separa il robot dagli operatori non è accessoria ma strutturale alla sicurezza del sistema; trasparenza alta, le istruzioni che il robot esegue sono codificate in programmi leggibili e verificabili dai tecnici. Il prototipo è spesso usato come punto di riferimento nei dibattiti sull'automazione del lavoro, ma la sua struttura tecnica è molto diversa da quella dei sistemi robotici più recenti.
Questo caso mostra come autonomia e presenza fisica non vadano nella stessa direzione. Il sistema ha autonomia decisionale quasi nulla: non prende nessuna decisione in modo indipendente, ogni movimento è il risultato di un'azione diretta del chirurgo. Ma ha contatto fisico diretto con il corpo del paziente, il che lo pone all'estremo più delicato della seconda dimensione. La trasparenza è alta: ogni azione del sistema è la traduzione diretta di un comando umano. Chiamarlo "robot chirurgico" evoca autonomia e sostituisce il chirurgo nell'immaginario comune, ma la struttura tecnica è quella di uno strumento di amplificazione della precisione umana, non di un agente autonomo. Questa distanza tra nome e struttura ha conseguenze concrete: la responsabilità in caso di errore rimane interamente sul chirurgo, non sul sistema.
Per capire la portata di questo sistema, pensa a quante volte hai sentito di un post rimosso "dall'algoritmo" senza che nessuno avesse letto effettivamente quel testo. Questo è il funzionamento concreto di un bot di moderazione. Le tre dimensioni restituiscono una struttura opposta al prototipo: autonomia decisionale molto alta, il sistema prende milioni di decisioni al giorno senza supervisione umana diretta; nessuna presenza fisica, non c'è corpo, non c'è movimento, solo elaborazione di dati; trasparenza molto bassa, i criteri esatti in base ai quali un contenuto viene rimosso o limitato non sono generalmente accessibili agli utenti, né sempre comprensibili ai progettisti stessi del sistema. Questo caso è spesso escluso dai dibattiti sulla robotica, che si concentrano sui sistemi fisici, ma ha effetti concreti sulla libertà di espressione di milioni di persone.
Questo caso è il più utile per capire perché le tre dimensioni non sono binarie ma continue. L'autonomia decisionale varia enormemente a seconda del livello tecnologico del sistema: una funzione di mantenimento della corsia è molto diversa da un'auto che guida da sola in città. La presenza fisica è indiretta, il veicolo non tocca le persone a bordo in modo chirurgico, ma in caso di incidente le conseguenze fisiche sono dirette e gravi. La trasparenza è parziale: alcune decisioni del sistema (come frenare di fronte a un ostacolo) sono comprensibili, altre (come scegliere tra due traiettorie in una situazione di emergenza) coinvolgono calcoli opachi che hanno sollevato un dibattito etico molto acceso, il cosiddetto "problema del trolley" applicato alla guida autonoma: chi decide chi proteggere quando un incidente è inevitabile?
Le tre dimensioni descrivono sistemi robotici intesi come macchine che percepiscono l'ambiente, elaborano informazioni e agiscono, fisicamente o digitalmente, in modo parzialmente autonomo. Non si applicano direttamente agli strumenti puramente meccanici senza alcuna elaborazione (un tornio, una gru a comando manuale), dove le questioni rilevanti riguardano la sicurezza fisica del lavoratore, non l'autonomia o la trasparenza del sistema. In quei contesti, altri strumenti analitici sono più appropriati.
Come riconoscere le dimensioni nei testi reali
I testi che parlano di robot, articoli giornalistici, comunicati di aziende tecnologiche, relazioni parlamentari, interviste a ricercatori, campagne pubblicitarie, contengono indicatori linguistici che permettono di collocare un sistema sulle tre dimensioni. Alcuni di questi indicatori sono descrittivi e verificabili; altri svolgono una funzione principalmente retorica, spesso quella di amplificare l'autonomia percepita del sistema (presentandolo come più indipendente e capace di quanto sia) oppure di minimizzarla (presentandolo come un semplice strumento privo di implicazioni). Distinguerli è il lavoro analitico di questo modulo.
Frasi che segnalano alta autonomia: "decide in autonomia", "apprende dall'esperienza", "si adatta alle condizioni", "valuta le opzioni disponibili", "reagisce in tempo reale senza intervento umano".
Frasi che segnalano bassa autonomia o controllo umano: "assiste l'operatore", "supporta la decisione del medico", "esegue le istruzioni del tecnico", "il controllo finale rimane all'essere umano", "interviene solo se autorizzato". Va verificato se queste affermazioni descrivono il funzionamento reale del sistema o se sono formule usate per ridurre la percezione di rischio.
Frasi che segnalano contatto diretto con le persone: "a contatto con il paziente", "indossabile", "collaborativo" (detto di robot industriali che lavorano senza recinzioni accanto agli operatori), "a bordo del veicolo", "in ambiente domestico non strutturato".
Frasi che minimizzano il rischio fisico: "completamente sicuro", "certificato", "testato in condizioni reali". Queste affermazioni non sono false in sé, ma vanno verificate: a quali standard di sicurezza si riferiscono, da chi sono stati rilasciati, e in quali condizioni operative valgono.
Frasi che segnalano opacità: "basato su intelligenza artificiale", "rete neurale profonda", "apprende dai dati", "modello proprietario", "algoritmo brevettato". Queste espressioni non descrivono necessariamente un sistema pericoloso, ma segnalano che il funzionamento interno non è accessibile o verificabile dall'esterno.
Frasi che evocano trasparenza: "spiegabile", "auditabile" (cioè controllabile da enti indipendenti), "basato su regole esplicite", "decisioni tracciabili". Va verificato se queste affermazioni corrispondono a funzionalità tecniche effettivamente disponibili o se sono dichiarazioni di intento senza corrispondenza tecnica.
Una categoria retorica particolarmente rilevante per i robot è quella dell'umanizzazione: l'attribuzione al sistema di caratteristiche proprie degli esseri umani, emozioni, intenzioni, personalità, persino diritti. Espressioni come "il robot vuole", "il sistema capisce", "la macchina sente" descrivono metaforicamente funzioni tecniche, ma producono effetti concreti: aumentano la fiducia degli utenti, riducono la percezione di rischio, e spostano implicitamente la responsabilità dal progettista al sistema. All'opposto, la retorica della disumanizzazione, "è solo un algoritmo", "non è che un programma", "non ha intelligenza vera", tende a minimizzare le implicazioni di sistemi che in realtà prendono decisioni con conseguenze reali sulla vita delle persone. Entrambe le retoriche oscurano la struttura tecnica effettiva.
Domanda di riflessione: la dimensione della trasparenza del funzionamento è quella che misura più direttamente la possibilità di attribuire responsabilità quando un sistema robotico causa un danno. Se non si capisce come un sistema è arrivato a una decisione, è molto difficile stabilire se l'errore stia nel progetto, nei dati usati per addestrarlo, nelle istruzioni date dall'operatore o in una combinazione di tutti questi fattori. In quale misura la trasparenza dovrebbe essere un requisito obbligatorio per legge, e a quali condizioni è giusto accettare sistemi opachi in cambio di prestazioni più alte?
Segnali tipici: specifiche tecniche misurabili, descrizione dei componenti, indicazione del livello di autonomia, condizioni operative dichiarate, limiti del sistema. Queste affermazioni sono verificabili confrontandole con la documentazione tecnica del sistema o con valutazioni indipendenti.
Segnali tipici: tassi di errore, percentuali di precisione, confronti con prestazioni umane, dati su incidenti o malfunzionamenti, cifre sulla diffusione. Va verificato se la fonte è indipendente o prodotta dall'azienda che commercializza il sistema, e in quali condizioni i test sono stati condotti.
Segnali tipici di umanizzazione: "il robot capisce", "impara come un bambino", "collabora come un collega", "si prende cura del paziente". Segnali di minimizzazione: "è solo uno strumento", "non decide nulla da solo", "il controllo è sempre umano". Entrambe le categorie costruiscono un'immagine del sistema che oscura le sue caratteristiche tecniche reali.
Prima di passare all'esercizio
Qual è la differenza principale tra una Descrizione tecnica o funzionale e la Retorica di umanizzazione? Costruisci un esempio di ciascuna partendo dallo stesso sistema che hai in mente, e spiega perché un lettore non attento potrebbe confonderle.
Analizza il testo: usa i pulsanti per evidenziare
Leggi il testo seguente per intero, senza usare ancora i pulsanti. Poi rileggi una seconda volta attivando un pulsante alla volta. Il testo è un articolo giornalistico fittizio pubblicato su una testata di divulgazione scientifica a proposito dell'introduzione di un sistema robotico in un reparto ospedaliero, un contesto settoriale specifico, scelto perché mescola in modo particolarmente denso le tre categorie di affermazioni che hai imparato a riconoscere.
Alcune parole tecniche usate nel testo: logistica interna ospedaliera indica il trasporto di farmaci, strumenti e campioni biologici all'interno di un ospedale; tasso di errore è la percentuale di operazioni in cui il sistema produce un risultato sbagliato o non previsto; validazione clinica è il processo attraverso cui un dispositivo medico viene testato e approvato per l'uso su pazienti reali.
Ogni elemento marcato appartiene in modo netto a una sola categoria. Non ci sono casi volutamente ambigui.
Il robot che conosce ogni corridoio
Da tre mesi, i corridoi del Policlinico Sant'Isidoro di Ferrara sono percorsi da una figura silenziosa su ruote. Si chiama ARIA, Autonomous Robotic Infrastructure Assistant, ed è già diventata parte del paesaggio quotidiano del reparto di oncologia. Gli infermieri dicono che ormai la riconoscono, che ha i suoi ritmi, le sue abitudini. Qualcuno le ha attaccato un adesivo con un sorriso sul pannello anteriore.
ARIA è un sistema di trasporto autonomo per la logistica interna ospedaliera. Pesa 120 chilogrammi, si muove a una velocità massima di 1,2 metri al secondo ed è equipaggiata con sensori LiDAR, dispositivi che misurano le distanze proiettando fasci di luce laser, e telecamere che le consentono di costruire una mappa dell'ambiente e di navigare evitando ostacoli in movimento, come carrelli e persone. Il carico viene depositato in un vano chiuso a chiave, accessibile solo al personale autorizzato tramite badge.
Secondo i dati diffusi dall'azienda produttrice, RoboMed Solutions, in diciotto mesi di test in quattro ospedali europei ARIA ha completato il 99,2% delle consegne nei tempi previsti, con un tasso di errore di percorso dello 0,3%. I dati non sono stati sottoposti a validazione clinica indipendente.
Il sistema gestisce autonomamente la pianificazione dei percorsi e la gestione delle priorità di consegna. In caso di ostacolo non superabile, ARIA si ferma e invia una notifica al coordinatore di reparto, che può sbloccare manualmente la situazione da un'applicazione sul tablet. Non è prevista la possibilità che il sistema modifichi da solo le istruzioni di consegna già assegnate dal personale.
«ARIA non sostituisce gli infermieri: li libera» dice la direttrice sanitaria del Policlinico. «Si occupa delle cose meccaniche, quelle che non richiedono intelligenza o empatia, così il personale può dedicarsi alle persone.»
Uno studio pubblicato nel 2023 sulla rivista Journal of Hospital Logistics ha analizzato l'introduzione di sistemi analoghi in undici ospedali statunitensi, rilevando una riduzione media del 23% del tempo che il personale infermieristico dedicava al trasporto interno di materiali, con una variazione molto ampia tra i diversi contesti (dal 9% al 41%). Gli autori segnalano che i risultati migliori si sono registrati negli ospedali che avevano ridisegnato i percorsi interni prima dell'introduzione del sistema.
Restano domande aperte. L'algoritmo di navigazione di ARIA è sviluppato e aggiornato direttamente da RoboMed Solutions tramite aggiornamenti software da remoto: l'ospedale non ha accesso al codice sorgente e non può verificare in modo indipendente le modifiche apportate al sistema. «È come aggiornare il telefono» minimizza il responsabile tecnico di RoboMed. «Non hai bisogno di capire come funziona il sistema operativo per usarlo bene.»
Attiva un pulsante alla volta. Leggi tutto il testo con quel filtro prima di passare al successivo. Le parti non evidenziate in nessuna modalità sono parti neutre: informazioni di contesto, citazioni descrittive, elementi narrativi senza implicazioni valutative dirette.
Dove si nascondeva la tensione
Il testo è costruito in modo da mescolare tre registri distinti con una coerenza narrativa superficiale. Il tono giornalistico, apparentemente equilibrato, con dati e voci diverse, tende a far percepire le affermazioni retoriche come ugualmente fondate rispetto a quelle tecniche o empiriche.
L'articolo apre con una scena di umanizzazione molto efficace: ARIA ha "ritmi" e "abitudini", gli infermieri le hanno attaccato un adesivo con un sorriso. Solo nel paragrafo successivo arriva la descrizione tecnica precisa: 120 chilogrammi, sensori LiDAR, velocità massima 1,2 m/s. La sequenza non è casuale: l'umanizzazione iniziale crea un'aspettativa favorevole che condiziona la lettura dei dati tecnici successivi. Un lettore non attento tende a conservare l'immagine del robot simpatico anche mentre legge le specifiche fredde. Invertire la sequenza, descrizione tecnica prima, scena umana dopo, produrrebbe un effetto molto diverso.
Il dato sul 99,2% di consegne nei tempi previsti è presentato come affermazione empirica con fonte, ma la frase successiva, "i dati non sono stati sottoposti a validazione clinica indipendente", ne riduce drasticamente il valore probatorio. È l'azienda produttrice a fornire i dati sulle proprie prestazioni, senza verifica esterna. Questa struttura, dato impressionante seguito da nota che lo ridimensiona, è comune nei comunicati tecnico-commerciali riprodotti dalla stampa divulgativa. Il lettore frettoloso trattiene il numero (99,2%) e dimentica la nota. Il lettore attento capisce che quel numero non è ancora una certezza scientifica.
L'ultimo paragrafo del testo contiene un'informazione strutturalmente importante, l'ospedale non ha accesso al codice sorgente del sistema e non può verificare gli aggiornamenti, immediatamente seguita da una battuta del responsabile tecnico che la minimizza: "È come aggiornare il telefono". L'analogia è retoricamente potente perché è familiare e rassicurante, ma è tecnicamente fuorviante: aggiornare un'app sul proprio telefono non ha le stesse implicazioni di modificare il software di un sistema che si muove in un reparto ospedaliero accanto ai pazienti. La minimizzazione retorica funziona qui come sostituto di una risposta tecnica che il testo non fornisce: quali controlli esistono sugli aggiornamenti? Chi verifica che non introducano errori?
Cosa hai visto, e cosa cambia adesso
Hai lavorato su un testo costruito per essere analizzato. Le domande che seguono non hanno una risposta esatta: chiedono di ragionare sui meccanismi, non di classificare correttamente le frasi.
Il testo contiene due descrizioni tecniche che riguardano aspetti diversi del sistema: il funzionamento fisico dei sensori e dei movimenti, e la gestione del software di navigazione.
Le due descrizioni operano sulla stessa dimensione o su dimensioni diverse? Quale delle due ha implicazioni più dirette per la trasparenza del funzionamento del sistema?
Nel testo compaiono due affermazioni empiriche con fonte: una prodotta dall'azienda stessa, l'altra da una rivista scientifica indipendente. Il fatto che entrambe siano classificate nella stessa categoria le rende equivalenti sul piano dell'affidabilità?
Quali elementi del testo aiutano a distinguere il peso delle due affermazioni? Perché la nota "i dati non sono stati sottoposti a validazione clinica indipendente" è rilevante e non è solo un dettaglio tecnico?
La retorica di umanizzazione compare all'inizio e alla fine del testo, in entrambi i casi in prossimità di informazioni strutturali che potrebbero generare preoccupazione nel lettore.
Perché questa posizione, retorica vicino a informazioni potenzialmente critiche, è più efficace rispetto alla stessa retorica presentata in isolamento? Quale effetto produce sul lettore che non la riconosce come tale?
La tua osservazione finale
Pensa a un sistema automatico o robotico che hai incontrato nella tua vita quotidiana, un assistente vocale, un sistema di raccomandazione di contenuti, una cassa automatica, un'app che suggerisce percorsi stradali. Scegli una delle tre dimensioni e prova a collocarla lungo il suo asse. Poi cerca un testo che parla di quel sistema, una pagina del sito del produttore, un articolo, una recensione, e identifica almeno una frase che descrive la struttura tecnica e almeno una che svolge una funzione retorica rispetto a quella stessa dimensione.
Fonti e bibliografia
I testi che seguono costituiscono la base empirica e teorica del modulo. Le voci sono organizzate in tre aree: studi sulla definizione e la classificazione dei sistemi robotici; ricerche sulle implicazioni sociali e di responsabilità; riferimento normativo europeo.
- Siciliano, B., Sciavicco, L., Villani, L., & Oriolo, G. (2009). Robotics: Modelling, Planning and Control. Springer.
- Dautenhahn, K. (2007). Socially intelligent robots: dimensions of human-robot interaction. Philosophical Transactions of the Royal Society B, 362(1480), 679–704.
- Pasquale, F. (2020). New Laws of Robotics: Defending Human Expertise in the Age of AI. Harvard University Press.
- Vallor, S. (2016). Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting. Oxford University Press.
- Parlamento Europeo e Consiglio dell'Unione Europea (2024). Regolamento (UE) 2024/1689 che stabilisce regole armonizzate sull'intelligenza artificiale (AI Act). Gazzetta Ufficiale dell'Unione Europea, L 1689.
Comprendere la natura di un robot ci aiuta a formulare meglio la domanda: non solo "è utile o pericoloso?", ma anche "chi ha deciso cosa può fare, in quali condizioni, e chi risponde quando qualcosa va storto?".