La governance dell'AI, Regole per tutti, potere per pochi
Chi scrive le regole sull'intelligenza artificiale non la controlla. Chi la controlla non ha bisogno di scrivere le regole. Questa asimmetria ha una funzione. È il principio di funzionamento del sistema, non la sua anomalia.

Ogni grande trasformazione tecnologica produce la propria narrazione regolatoria. L'internet degli anni Novanta promise una rete orizzontale e democratica; il risultato fu l'oligopolio delle piattaforme. La finanza digitale del decennio successivo avanzò nel segno della disintermediazione; consegnò invece nuove dinamiche di concentrazione oligopolistica. Oggi l'intelligenza artificiale pone una questione di governance con le stesse pretese universalistiche: una tecnologia neutrale, un rischio sistemico, un bene comune da disciplinare attraverso norme trasparenti e applicabili a tutti. Questa narrazione merita di essere interrogata nei suoi fondamenti.
L'AI Act, le linee guida dell'OCSE, i principi dell'Hiroshima AI Process, le executive orders statunitensi: questi strumenti esistono, producono effetti, occupano l'agenda politica. Ma questo non esaurisce la questione. La domanda è un'altra: che cosa producono concretamente nel mondo, quali rapporti di forza legittimano, e che cosa escludono dal proprio campo visivo.
Esiste una frattura strutturale tra la governance dell'AI, quella che esiste de jure nelle dichiarazioni e nei regolamenti, e la realtà de facto di chi controlla i substrati fisici del calcolo, i dati di addestramento, i modelli fondazionali, le infrastrutture di distribuzione. Non è un difetto correggibile. È la condizione strutturale su cui il discorso regolativo si regge, e da cui trae la propria autorità, presentandosi come universale mentre tutela interessi particolari.
Si possono individuare asimmetrie politiche, squilibri che una diversa distribuzione di risorse potrebbe correggere, e asimmetrie informative, colmabili con maggiore trasparenza. La questione, però, si colloca a un livello più profondo: quello dell'architettura materiale che precede la regolamentazione. Chi non dispone delle infrastrutture per sviluppare AI avanzata non ha forza contrattuale per contestare le categorie con cui le regole vengono scritte. Tre nodi sostengono questa lettura: la concentrazione del potere di calcolo in mano a pochi attori privati; il controllo fisico sulla catena dei semiconduttori; l'estrazione ineguale dei dati dal Sud globale.
L'architettura del discorso egemonico
Anu Bradford, in Digital Empires (Oxford University Press, 2023), ha fornito la mappa più aggiornata di questa architettura. Bradford identifica tre modelli regolatori in competizione, quello americano, fondato sul mercato e sull'autoregolazione delle imprese; quello cinese, centrato sul controllo statale e sull'uso dell'AI come strumento di governance autoritaria; quello europeo, costruito intorno alla protezione dei diritti individuali e alla regolazione pubblica dei rischi tecnologici, e mostra come ciascuno tenti di proiettare la propria influenza oltre i propri confini. La competizione non è simmetrica. L'UE non è una potenza tecnologica di primo piano, ma esercita una forma di potere normativo extra-territoriale attraverso il cosiddetto Brussels Effect: le imprese multinazionali adottano gli standard europei su scala globale per mantenere l'accesso al mercato comunitario, estendendo volontariamente le regole UE alle proprie operazioni globali senza che nessuna coercizione diretta sia necessaria.
Il risultato è che il discorso europeo sulla governance dell'AI, fondato su trustworthy AI, protezione dei diritti fondamentali, approccio basato sul rischio, si presenta come universale quando è, nella sua genesi e nelle sue priorità, profondamente particolare. L'AI Act è il primo quadro giuridico comprensivo sull'AI al mondo. Ma il primato temporale non implica rappresentatività: le categorie normative su cui è costruito, autonomia individuale, diritti fondamentali di matrice liberale, mercato interno europeo, riflettono priorità che non sono condivise né all'interno dell'Occidente, né nel resto del mondo.
Il Brussels Effect è peraltro meno automatico di quanto la narrazione europea suggerisca. Alcuni analisti lo leggono nei termini di una governance sperimentalista, uno tra i vari approcci possibili, destinato a interagire con altri quadri normativi, piuttosto che come affermazione unilaterale di uno standard globale. La pretesa di leadership normativa europea precede, e non segue, la dimostrazione della propria efficacia.
I limiti nella regolazione del potere privato
Nick Srnicek, in Platform Capitalism (Polity Press, 2016), ha mostrato perché queste tensioni non siano contingenti. Le grandi piattaforme digitali non sono imprese operanti in un mercato: sono infrastrutture che controllano i flussi di dati, definiscono le condizioni di accesso all'economia digitale e accumulano rendite monopolistiche che si autoalimentano. Gli strumenti del diritto antitrust tradizionale non erano progettati per questo tipo di potere. Le imprese tech non violano le regole del gioco: le ridefiniscono dall'interno.
Srnicek coglie la dimensione economica. Lina Khan, in The Separation of Platforms and Commerce (Columbia Law Review, 2019), sposta l'analisi sul piano giuridico-istituzionale: il problema non è solo l'accumulazione di potere di mercato, ma che la dottrina antitrust basata sul consumer welfare standard è strutturalmente inadatta a rilevarlo, molti servizi sono gratuiti, il danno non è nel prezzo ma nel controllo dell'infrastruttura. La proposta di separare le funzioni di piattaforma da quelle commerciali, come avvenne per le ferrovie nel XIX secolo, indica che il problema è regolabile, ma richiede un cambio di paradigma giuridico.
Marietje Schaake, in The Tech Coup (Princeton University Press, 2024), porta questa diagnosi sul piano politico-istituzionale. Le imprese tecnologiche hanno eroso prerogative che in sistemi democratici dovrebbero appartenere alla sfera pubblica: gestione delle infrastrutture critiche, moderazione del discorso politico, influenza sulle procedure elettorali, cooperazione con apparati di sicurezza statale. Non hanno violato le leggi esistenti, hanno occupato spazi che quelle leggi non presidiavano.
Louise Amoore, in Cloud Ethics (Duke University Press, 2020), aggiunge la dimensione che rende il problema più resistente agli strumenti normativi. Il potere algoritmico non produce decisioni individuali impugnabili, non opera attraverso catene di responsabilità chiare, non si lascia racchiudere nelle categorie del diritto amministrativo. I sistemi di machine learning classificano e selezionano prima ancora che le decisioni formali vengano prese, attraverso logiche opache che sfuggono agli utenti e spesso agli stessi sviluppatori. Il discorso europeo sulla trasparenza e sulla spiegabilità degli algoritmi rischia così di diventare strumento di legittimazione del potere che vorrebbe controllare: crea l'apparenza del controllo senza affrontarne le condizioni.
Srnicek vede il problema nella struttura economica, Khan nel paradigma giuridico, Schaake nell'erosione istituzionale, Amoore nella logica del potere algoritmico. Le democrazie liberali non stanno regolando l'AI in ritardo: stanno applicando categorie normative a forme di potere che quelle categorie non erano state progettate per contenere. Esportarle come standard globali significa esportarne anche i limiti.
Hardware, semiconduttori e potere de facto
TSMC (Taiwan) produce la quasi totalità dei chip di fascia alta al mondo. ASML (Paesi Bassi) detiene una posizione pressoché esclusiva sulle macchine per litografia ultravioletta estrema (EUV) indispensabili per fabbricarli. Uno scenario di crisi nello Stretto di Taiwan non avrebbe conseguenze solo militari: potrebbe fermare la produzione globale di hardware AI nel giro di mesi.
Sulla base di questa vulnerabilità gli Stati Uniti hanno disposto una strategia offensiva: i controlli sulle esportazioni di chip Nvidia ad alta prestazione verso Cina, Russia e, in forma più selettiva, verso alcuni paesi del Medio Oriente. Attraverso le Entity List del Dipartimento del Commercio, Washington ha trasformato l'accesso all'hardware in uno strumento di pressione geopolitica. Chi governa la disponibilità di chip avanzati orienta la frontiera dello sviluppo AI, prima e al di là di qualsiasi accordo normativo multilaterale.
Paul Scharre, in Four Battlegrounds (W. W. Norton, 2023), identifica dati, capacità di calcolo, talento umano e istituzioni come i quattro terreni su cui si decide la supremazia nell'AI. Ma la capacità di calcolo è già oggi il terreno più asimmetrico e il meno redistribuibile attraverso meccanismi di governance. Nessun framework normativo compensa l'impossibilità strutturale di accedere all'hardware necessario per competere.
Chris Miller, in Chip War (Scribner, 2022), ricostruisce come questa concentrazione si sia prodotta, non per caso, ma attraverso decenni di scelte industriali, investimenti pubblici e strategie geopolitiche deliberate. Il controllo sui semiconduttori è diventato la principale leva di potere geopolitico del XXI secolo. L'asimmetria attuale è il prodotto di scelte specifiche: potrebbe essere alterata, ma richiede un orizzonte temporale che i processi di governance normativa non sono attrezzati a mobilitare.
I paesi a basso e medio reddito non sono solo esclusi dalla scrittura delle regole: sono esclusi dalla catena materiale che rende le regole rilevanti. La governance de jure dell'AI rischia di configurarsi come un dibattito tra chi già dispone delle infrastrutture, mentre la frattura tra chi sviluppa e chi riceve rimane intatta.
La posizione periferica del Sud globale
Nick Couldry e Ulises A. Mejias, in The Costs of Connection (Stanford University Press, 2019), leggono la posizione del Sud globale non come un'anomalia da correggere ma come una caratteristica strutturale del sistema. Come il colonialismo classico si appropriava di terre, risorse e corpi, il "colonialismo dei dati" contemporaneo si appropria di comportamenti, relazioni, identità, per convertirli in materia prima per l'accumulazione capitalistica. L'appropriazione è più intensa nelle regioni del Sud globale, dove i dati vengono estratti con minori vincoli regolatori e minori benefici per le comunità coinvolte.
Ruha Benjamin, in Race After Technology (Polity Press, 2019), mostra che i sistemi AI non si limitano a estrarre valore dalle popolazioni marginalizzate: producono attivamente discriminazioni. I sistemi di riconoscimento facciale con tassi di errore sistematicamente più alti sulle persone di pelle scura, i modelli di credit scoring che replicano le diseguaglianze storiche, i sistemi di selezione del personale che penalizzano chi si discosta dai profili demografici dominanti nei dati di addestramento, non sono errori tecnici correggibili con più dati. Sono effetti di una scelta su chi conta come utente tipo del sistema. Benjamin chiama questo meccanismo New Jim Code: la codificazione della discriminazione razziale nel linguaggio neutrale dell'algoritmo.
Nel 2023, l'Alta Corte keniota ha sospeso la campagna biometrica di Worldcoin e ordinato la cancellazione di tutte le scansioni dell'iride raccolte, per violazioni del Kenya Data Protection Act e assenza di consenso informato. L'estrazione di dati da popolazioni del Sud globale avviene spesso in condizioni che non sarebbero tollerate nelle stesse giurisdizioni occidentali che producono il discorso sulla governance.
La marginalizzazione del Sud globale nei dibattiti sull'AI non è quantitativa, non si risolve includendo più voci nei consessi internazionali. È epistemica: le barriere strutturali nell'infrastruttura della ricerca condizionano la visibilità e la legittimità di determinate voci prima ancora che intervenire. I ricercatori del Sud globale vengono collocati in ruoli tecnici o implementativi; le questioni di etica e governance restano definite dalle istituzioni del Nord. Come osserva Abeba Birhane, la scarsa rappresentazione del Sud globale nella progettazione dei sistemi AI non è un dettaglio tecnico: è una scelta con conseguenze distribuite globalmente.
L'espansionismo digitale cinese
Attraverso la Digital Silk Road, la Cina ha esportato infrastrutture tecnologiche verso decine di paesi africani, latinoamericani e dell'Asia centrale: reti 5G realizzate da Huawei e ZTE, sistemi di sorveglianza urbana e biometrica (Safe Cities, Sharp Eyes), data center, piattaforme di pagamento digitale. Questi accordi generano dipendenze tecnologiche, trasferiscono dati sensibili verso giurisdizioni soggette al diritto cinese, diffondono un modello di governance fondato sul controllo statale e sulla sorveglianza sistematica.
I governi beneficiari, tuttavia, non sono destinatari passivi. Yuen Yuen Ang, in China's Gilded Age (Cambridge University Press, 2020), ha mostrato come negozino attivamente le condizioni degli accordi, perseguendo obiettivi propri: ridurre la dipendenza dai fornitori occidentali, acquisire strumenti di controllo interno, accedere a credito e infrastrutture che i mercati dei capitali occidentali non offrono a condizioni equivalenti. L'adozione di tecnologia cinese non implica allineamento politico con Pechino, molti governi mantengono relazioni parallele con attori occidentali e cinesi in una strategia deliberata di hedging.
Sheena Greitens ha documentato come i sistemi di sorveglianza esportati dalla Cina vengano effettivamente usati per reprimere opposizione politica e minoranze. Ma Google, Meta e Amazon Web Services generano forme di dipendenza e di estrazione dei dati non meno strutturali di quelle prodotte da Huawei o Alibaba Cloud, operano attraverso logiche di mercato anziché accordi statali, il che le rende meno visibili nel discorso sulla governance, non meno efficaci nella concentrazione del potere.
Nessuno dei tre modelli regolatori, americano, cinese, europeo, è privo di interessi particolari. La competizione tra essi si svolge su un terreno che esclude strutturalmente i soggetti più vulnerabili dalle scelte che li riguardano di più.
I middle powers
Il Sud globale non è un blocco omogeneo, e trattarlo come tale è uno degli errori analitici più comuni nel dibattito sulla governance dell'AI.
Il Technology Innovation Institute di Abu Dhabi ha sviluppato Falcon, un modello linguistico rilasciato con licenza aperta. Non è una decisione tecnica: è una mossa geopolitica deliberata per costruire influenza nell'ecosistema AI al di fuori dei duopoli americano e cinese. L'India ha avviato programmi nazionali per modelli linguistici in hindi e nelle principali lingue regionali, i sistemi addestrati prevalentemente su dati anglofoni incorporano orientamenti culturali inadeguati per centinaia di milioni di utenti, e Nuova Delhi lo ha riconosciuto come problema strategico, non come questione tecnica.
Nanjira Sambuli ha sostenuto che la vera questione per il Sud globale non è ottenere rappresentanza nei processi normativi disegnati altrove, ma sviluppare la capacità di determinare autonomamente quali problemi richiedono soluzioni AI e quali valori incorporare nei sistemi. Questa AI sovereignty in senso sostanziale è diversa dalla partecipazione ai tavoli multilaterali esistenti: non chiede un posto a un tavolo altrui, ridefinisce chi costruisce il tavolo.
Brasile e Indonesia non si allineano né con Washington né con Pechino: sono abbastanza grandi da avere potere contrattuale, abbastanza dipendenti da non potersi permettere fratture radicali. La geopolitica dell'AI non è una contrapposizione binaria, è un campo di forze in cui la posizione di ogni attore dipende da dimensione del mercato, capacità tecnologica, alleanze diplomatiche e orientamento strategico combinati insieme.
La società civile transnazionale
Accanto agli stati operano attori non statali che hanno inciso concretamente sulla governance dell'AI, attraverso la produzione di conoscenza critica, la mobilitazione pubblica, l'intervento nei procedimenti legislativi. Ignorarli significa proiettare un'immagine di potere più monolitica di quanto non sia.
Access Now, Algorithm Watch, l'AI Now Institute hanno lasciato tracce visibili nell'AI Act: la classificazione del riconoscimento facciale come sistema ad alto rischio, gli obblighi di trasparenza per lo scoring creditizio, i limiti all'AI nella giustizia penale. La società civile non ha vinto, il divieto generalizzato della sorveglianza biometrica negli spazi pubblici è stato annacquato, ma il processo non è stato determinato esclusivamente dalle imprese tecnologiche e dai governi che le ospitano.
La dimensione più rilevante è quella geografica. Pollicy (Uganda), AfroLeadership, la rete di ricercatori attorno ad Abeba Birhane operano con risorse inferiori, accesso istituzionale più difficoltoso, e un lavoro sistematicamente sottoarchiviato nei policy paper mainstream. Eppure i loro interventi, sull'estrazione dei dati, sulla discriminazione algoritmica nel credito e nel controllo delle frontiere, sull'inadeguatezza dei framework di consenso nelle campagne biometriche, hanno anticipato il dibattito regolatorio del Nord globale con anni di anticipo.
Il problema non è l'assenza da tavoli formali: è che quando vi entrano, lo fanno con un deficit di credenziali che ne filtra preventivamente l'influenza. La pluralità epistemica non si ottiene con la volontà politica, richiede di riscrivere i criteri con cui si stabilisce chi conta come interlocutore legittimo.
Le contraddizioni interne non mancano. Le organizzazioni nordamericane ed europee di AI ethics operano spesso con finanziamenti delle stesse fondazioni tech che criticano; quelle del Sud globale sono più autonome, ma più esposte alle pressioni dei governi locali. La società civile transnazionale replica in scala le asimmetrie che dovrebbe correggere, il che non annulla la sua rilevanza, ma impedisce di assegnarle un ruolo redentivo. Resta però una domanda che l'analisi strutturalista tende a chiudere troppo in fretta: se il potere fosse davvero impermeabile, come si spiegherebbero le modifiche concrete che questi attori hanno ottenuto?
L'open source come strumento di redistribuzione del potere tecnologico
All'inizio del 2025, DeepSeek ha rilasciato modelli linguistici open-weight con prestazioni competitive rispetto ai migliori modelli proprietari americani, a una frazione del costo computazionale. Sul piano economico, ha messo in discussione le valutazioni delle imprese AI americane. Sul piano geopolitico, ha mostrato che il vantaggio competitivo degli Stati Uniti, fondato in parte sul controllo dell'hardware tramite export controls, non regge strutturalmente. Qwen di Alibaba e Llama di Meta hanno contribuito a costruire un ecosistema open-source globale che abbassa le barriere all'ingresso per sviluppatori e ricercatori fuori dai principali centri tecnologici.
Le implicazioni per il Sud globale sono concrete. I ricercatori che non possono sostenere i costi delle API proprietarie eseguono oggi modelli open-weight localmente su hardware accessibile. Le università africane, latinoamericane e dell'Asia meridionale addestrano versioni specializzate su corpora linguistici locali. I modelli di base restano sviluppati prevalentemente dal Nord globale, e i dati di addestramento riflettono le distorsioni culturali documentate da Birhane, ma l'architettura di potere del settore si è modificata.
Alcuni governi occidentali premono per restrizioni alla pubblicazione dei pesi, invocando rischi di sicurezza. Se si traducessero in regolazione vincolante, il risultato sarebbe che il principale strumento attraverso cui gli attori periferici accedono alle frontiere tecnologiche viene limitato proprio quando comincia a produrre effetti redistributivi. La governance dell'AI open source è essa stessa un terreno di contestazione geopolitica.
Il discorso egemonico come problema
Trustworthy AI, human-centric AI, responsible AI, i concetti che dominano i documenti ufficiali dell'UE, dell'OCSE e dell'UNESCO presentano come universali valori storicamente situati in una tradizione liberale occidentale. I processi multilaterali di governance, dall'AI Safety Summit di Bletchley Park ai tavoli OCSE, sono progettati e ospitati da attori con un interesse diretto nel formato delle regole che emergeranno. La raccolta dei dati necessari per addestrare i sistemi AI avviene secondo logiche estrattive che replicano le asimmetrie che la governance dichiara di voler correggere.
Il piano che l'analisi normativa tende a trascurare è quello materiale. Il controllo sull'hardware, sulle catene di approvvigionamento dei semiconduttori e sulla capacità computazionale determina chi può partecipare allo sviluppo dell'AI in modo sostantivo, prima che qualsiasi regola venga scritta. La governance de jure si costruisce su un substrato già profondamente asimmetrico, e quell'asimmetria orienta gli esiti normativi prima ancora che il processo inizi.
Verso una governance dell'AI genuinamente plurale
Verity Harding, in AI Needs You, mostra attraverso la comparazione storica con la corsa allo spazio, la bioetica e internet che le tecnologie trasformative non hanno un esito determinato. Le istituzioni che invita a costruire, però, sono prevalentemente quelle delle democrazie liberali occidentali. Chi definisce le "scelte collettive" quando il collettivo rilevante è l'intera umanità, non solo i cittadini delle democrazie consolidate, è una domanda che il libro non risolve.
Una governance genuinamente plurale richiederebbe tre condizioni. Nessuna è oggi soddisfatta.
La prima condizione è la rappresentanza sostanziale. Includere più voci del Sud globale in processi disegnati altrove produce legittimazione senza potere. I meccanismi della WTO o del CBD sulla biodiversità mostrano che è possibile costruire processi in cui paesi a reddito medio-basso esercitano potere contrattuale reale, ma richiedono decenni di costruzione istituzionale e presuppongono che le potenze dominanti abbiano interesse a cedere quota di influenza. Questo interesse non si produce per appello normativo: si produce quando il costo del mancato riconoscimento supera il costo della concessione. La pressione dei middle powers tecnologici, India, Brasile, Indonesia, gli Emirati, rappresenta oggi la leva più concreta in questa direzione, non perché perseguano obiettivi di equità globale, ma perché la loro esclusione dai processi normativi produce regole che non riconoscono come legittime e che quindi non implementano. L'interesse al riconoscimento è una variabile realista, non un appello morale.
La seconda condizione è l'accesso alle infrastrutture materiali. Senza redistribuzione della capacità computazionale, la partecipazione ai processi di governance resta formale. Alcune proposte circolano: un fondo globale per le infrastrutture AI nelle discussioni ONU, meccanismi di licenza obbligatoria sui modelli fondazionali analoghi a quelli per i farmaci essenziali, cooperative di dati regionali. Nessuna ha trovato un percorso istituzionale credibile, ma il precedente dei farmaci generici è istruttivo. L'accordo TRIPS del 1995 sembrava blindare il controllo farmaceutico delle multinazionali; la crisi dell'AIDS e la pressione coordinata di governi del Sud globale, organizzazioni sanitarie internazionali e società civile transnazionale produsse nel 2001 la Dichiarazione di Doha, che aprì spazi per le licenze obbligatorie. Il meccanismo non fu morale: fu la combinazione di una crisi abbastanza visibile da rendere insostenibile lo status quo e di una coalizione abbastanza ampia da rendere costoso il blocco. Nessuno dei due elementi è oggi assente dal panorama dell'AI, la crisi della concentrazione computazionale è visibile, e le coalizioni cominciano a formarsi. La domanda è se raggiungeranno la massa critica prima che l'architettura tecnica si cristallizzi in modo irreversibile.
La terza condizione è il riconoscimento della pluralità epistemica. Non basta allargare il tavolo: occorre redistribuire il potere di stabilire l'ordine del giorno, quali rischi vengono classificati come prioritari, quali valori incorporati nelle metriche, quali tradizioni di pensiero considerate autorevoli. Questo è il piano su cui la modifica è più difficile da ottenere attraverso calcolo di interesse, perché tocca le categorie con cui gli attori dominanti costruiscono la propria identità e legittimità. È anche il piano su cui la società civile transnazionale e i ricercatori del Sud globale hanno la maggiore capacità di incidenza autonoma: la produzione di conoscenza alternativa non richiede la cessione di potere da parte di nessuno, richiede risorse e riconoscimento istituzionale. Finanziare strutturalmente le istituzioni di ricerca del Sud globale che lavorano sull'AI, non attraverso le fondazioni delle imprese tecnologiche ma attraverso meccanismi pubblici multilaterali, è una condizione necessaria, non sufficiente, e politicamente più praticabile delle altre due.
Queste tre condizioni non sono indipendenti. La rappresentanza senza infrastrutture è simbolica; le infrastrutture senza pluralità epistemica replicano le logiche estrattive degli attori dominanti con hardware diverso; la pluralità epistemica senza rappresentanza produce conoscenza critica che non entra nei processi decisionali.
Rimane una tensione che sarebbe ingannevole risolvere retoricamente. Gli attori dominanti cedono potere solo quando il calcolo di interesse lo rende conveniente. I principi normativi, pluralità, equità, sovranità epistemica, non sono variabili indipendenti in quel calcolo: diventano rilevanti quando sono incorporati in pressioni politiche, costi reputazionali, o alternative credibili. Questo non li rende irrilevanti: li rende strumenti, non fondamenti. Un discorso sulla governance dell'AI che voglia essere più di una dichiarazione di principi deve quindi rispondere non solo alla domanda cosa sia giusto, ma alla domanda chi ha interesse a realizzarlo, in quali condizioni, attraverso quali alleanze.
Riferimenti
- Amoore, L. (2020). Cloud ethics: Algorithms and the attributes of ourselves and others. Duke University Press.
- Ang, Y. Y. (2020). China's gilded age: The paradox of economic boom and vast corruption. Cambridge University Press.
- Benjamin, R. (2019). Race after technology: Abolitionist tools for the new Jim Code. Polity Press.
- Birhane, A. (2021). Algorithmic injustice: A relational ethics approach. Patterns, 2(2).
- Bradford, A. (2023). Digital empires: The global battle to regulate technology. Oxford University Press.
- Couldry, N., & Mejias, U. A. (2019). The costs of connection: How data is colonizing human life and appropriating it for capitalism. Stanford University Press.
- Greitens, S. C. (2020). Surveillance, security, and liberal visas: Assessing China's efforts to export repression. International Security, 45(3), 117–152.
- Harding, V. (2024). AI needs you: How we can change AI's future and save our own. Princeton University Press.
- Khan, L. M. (2019). The separation of platforms and commerce. Columbia Law Review, 119(4), 973–1098.
- Miller, C. (2022). Chip war: The fight for the world's most critical technology. Scribner.
- Parlamento Europeo e Consiglio dell'Unione Europea. (2024). Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (Atto sull'intelligenza artificiale). Gazzetta Ufficiale dell'Unione Europea.
- Sambuli, N. (2023). Digital sovereignty and the politics of AI governance in the Global South. Carnegie Endowment for International Peace, Working Paper.
- Schaake, M. (2024). The tech coup: How to save democracy from Silicon Valley. Princeton University Press.
- Scharre, P. (2023). Four battlegrounds: Power in the age of artificial intelligence. W. W. Norton & Company.
- Srnicek, N. (2016). Platform capitalism. Polity Press.
Raffaele Maurici
Innovation Agency