Mentre le grandi aziende tecnologiche competono per sviluppare sistemi di IA sempre più potenti, promettendo rivoluzioni in ogni settore della vita umana, un fronte eterogeneo di resistenza si sta organizzando. Non sono tenofobi ignoranti, neoluddisti nostalgici o conservatori resistenti al progresso tecnologico. Tra loro ci sono scienziati dell'IA, programmatori, artisti, sindacalisti, attivisti ambientali. E hanno una domanda semplice ma urgente: chi ha deciso che questo futuro è quello che vogliamo?
A porre questa domanda non sono più isolati cittadini o scienziati, ma movimenti eterogenei, locali e globali, variamente organizzati, tutti sensibilmente motivati da problematiche quali la democrazia, l’esercizio del potere, l’ambiente. Tanti individui che si sentono sempre più inquieti di fronte alla nuova civiltà delle macchine e per come viene conformisticamente e superficialmente raccontata, descritta come inevitabile e destinata a migliorare la nostra vita di esseri umani sulla terra. Un pianeta Terra sul quale si lavorerà sempre perché il mondo sarò operato e governato da machine intelligenti autonome. Almeno queste sono le promesse per un futuro migliore.
Buona parte della critica nasce dalla rinuncia, che la narrazione conformistica predominante evidenzia, a una visione d’insieme e a una lettura critica. Il progresso e la sua direzione sono dati per scontati dentro quella che viene rappresentata come una linea evolutiva già tracciata e non più rallentabile o possibile da fermare.
La critica più profonda e radicale interessa chi controlla lo sviluppo dell’IA e chi decide come verrà sviluppata, applicata e usata. Una manciata di aziende tecnologiche (OpenAI, Google, Meta, Anthropic, Microsoft) hanno concentrato nelle loro mani un potere senza precedenti. Stanno costruendo tecnologie che potrebbero trasformare ogni aspetto della società, ma le decisioni vengono prese in stanze chiuse, senza trasparenza, senza meccanismi democratici di governance e responsabilità. Queste aziende decidono unilateralmente cosa è sicuro, cosa è etico, cosa può essere commercializzato. Ma le conseguenze le subiamo tutti
Ne sono testimonianza il diffondersi della disinformazione che rende sempre più difficile distinguere il vero dal falso ("Stiamo perdendo la capacità di fidarci dei nostri occhi e delle nostre orecchie"), ma anche ciò che sta avvenendo sul terreno delle numerose guerre che stanno caratterizzando quest’epoca di grandi crisi geopolitiche e non solo. Il rischio delle armi autonome, senza supervisione umana sta diventando sempre più elevato e nessun trattato internazionale sembra ad oggi in grado di proibire o impedire l’uso di sistemi d'arma che possono selezionare e attaccare bersagli senza supervisione umana.
Un’altra critica rivolta all’IA viene dagli attivisti ambientali che invitano a spostare l’attenzione da cosa può fare a cosa e quanto consuma. La critica nasce dal mettere in discussione un tecnocapitalismo coloniale dai costi ambientali crescenti, riversati sulle parti più povere del pianeta, giustificati nella narrazione corrente celebrativa dei successi dell’IA come un progresso per l’umanità intera.
I data center necessari per addestrare e far funzionare i grandi modelli di IA hanno un impatto ambientale enorme. Consumano quantità crescenti di energia elettrica. Alcune stime parlano di un aumento del 160% entro il 2030. Ma il problema non è solo l'energia: è anche l'acqua. Per raffreddare i server, i data center utilizzano milioni di litri di acqua dolce. In regioni già sotto stress idrico, questo sta creando conflitti. In Uruguay, Google ha dovuto affrontare proteste per un data center che avrebbe consumato milioni di litri d'acqua al giorno mentre il paese affrontava la peggiore siccità da decenni. E poi c'è l'hardware. I chip specializzati per l'IA richiedono materiali rari: cobalto, litio, tungsteno, terre rare. La loro estrazione avviene prevalentemente in paesi del Sud Globale, spesso in condizioni di sfruttamento ambientale e umano devastanti.
Noi esseri umani, abbiamo la responsabilità di non contentarci delle narrazioni che ci vengono propinate. Qualcuno ha interesse a dirci che chiederci 'How many jobs will be killed by AI?' è la domanda sbagliata.
I tre volti della resistenza
Il panorama dell'attivismo anti-IA è articolato, complesso e attraversato da tensioni interne. Volendo semplificare tre sono i movimenti principali che rappresentano le diverse strategie e visioni del mondo di chi alla narrazione dell’IA attuale prova a sostituirne di alternative, certamente non celebrative e sempre critiche, costruite per far pensare e riflettere, in particolare sugli effetti e sulle conseguenze di uno sviluppo fuori controllo. In realtà sotto il potere e il controllo di pochi.
A spingere le persone attive nei tre movimenti , più avanti in questo testo sommariamente descritti, sono motivazioni che formano un arcipelago complesso di preoccupazioni che spesso si sovrappongono ma partono da premesse differenti.
Al cuore dei movimenti come PauseAI e ControlAI c'è una preoccupazione che può sembrare fantascientifica ma è presa sul serio da molti esperti: il rischio che una superintelligenza artificiale possa sfuggire al controllo umano con conseguenze catastrofiche. Le motivazioni individuali sono le più varie ma tutte sono collegabili a una preoccupazione di fondo sull’accelerazione che l’evoluzione delle IA sta manifestando, anche per la sua rapida diffusione e utilizzo da parte di moltitudini di persone, inconsapevoli dei rischi, degli effetti e delle conseguenze di una IA fuori controllo o fin troppo controllata da pochi.
Geoffrey Hinton, considerato uno dei padri fondatori del deep learning, ha lasciato Google nel 2023 proprio per poter parlare liberamente di questi rischi. "Pensavo che ci sarebbero voluti 30-50 anni prima di avere intelligenze generali", ha dichiarato al New York Times. "Ovviamente non lo penso più". Un sondaggio condotto nel 2023 tra ricercatori di machine learning ha rivelato che il 14% assegna almeno il 10% di probabilità a esiti "estremamente negativi" dallo sviluppo dell'IA, inclusa l'estinzione umana. Percentuali che possono sembrare basse, ma che applicate a un rischio esistenziale diventano inaccettabili.
Il Dipartimento della Homeland Security degli Stati Uniti ha pubblicato nel 2024 un rapporto paragonando lo sviluppo dell'IA alla corsa agli armamenti nucleari durante la Guerra Fredda. Un parallelo che i movimenti di resistenza usano costantemente per chiedere che, così come sono stati creati trattati internazionali per controllare le armi nucleari, si faccia la stessa cosa con l'IA.
Non tutti nella comunità scientifica concordano. Yann LeCun, chief AI scientist di Meta, ha definito questi timori pretestuosamente ridicoli, sostenendo che sono tecnicamente infondati e distraggono da problemi più concreti e immediati dell'IA. Ma il dibattito tra i "padrini" del deep learning, Hinton e Bengio da una parte, LeCun dall'altra, mostra quanto profonde siano le divisioni anche tra gli esperti più qualificati.
A persone come LeCun, molti attivisti rispondono che il problema non è tanto riflettere sul rischio esistenziale, percepibile come un tema astratto o lontano nel tempo, quanto di dare risposte alle preoccupazioni immediate e concrete dell’oggi. Ad esempio, a come l'IA stia già distruggendo posti di lavoro e svalutando il lavoro creativo umano. Il rischio non è da tutti condiviso ma lo sciopero degli sceneggiatori e attori di Hollywood nel 2023 ha portato il problema della sparizione di posti di lavoro legati alla creatività, al talento e all’esperienza umana, al centro dell’attenzione pubblica.
Gli artisti visivi hanno vissuto uno shock simile. Quando sistemi come Midjourney e Stable Diffusion hanno iniziato a generare immagini di qualità professionale, addestrati su miliardi di opere protette da copyright scaricate senza permesso, la reazione è stata di rabbia. Gruppi come Spawning AI hanno creato strumenti per permettere agli artisti di "avvelenare" i loro dataset – rendere le loro opere inutilizzabili per l'addestramento tramite modifiche impercettibili all'occhio umano.
Per non parlare di un livello ancora più invisibile di sfruttamento. I cosiddetti "ghost workers", lavoratori del Sud Globale che etichettano dati, puliscono dataset, moderano contenuti per addestrare i sistemi di IA. In Kenya, Madagascar, Filippine, vengono pagati appena 1-2 dollari l'ora per lavori psicologicamente devastanti, come guardare immagini violente o traumatiche per insegnare agli algoritmi cosa filtrare.
"I lavoratori gig sono i canarini nella miniera", "Quello che succede a loro oggi succederà a molti altri domani" (Mary Gray, ricercatrice di Microsoft)
PauseAI: i moderati organizzati
È da considerarsi moderato, sicuramente non un rivoluzionario, Joep Meindertsm, un imprenditore olandese di successo che nel 2023 ha lasciato il suo lavoro per fondare PauseAI, il movimento che chiede una moratoria temporanea sullo sviluppo di sistemi di intelligenza artificiale più potenti di GPT-4. Una richiesta motivata dalla preoccupazione su una corsa irresponsabile verso sistemi che nessuno comprende davvero che porta a chiedere di premere il pulsante di pausa finché non avremo le giuste garanzie di sicurezza.
PauseAI si ispira alla lettera aperta pubblicata nel marzo 2023 dal Future of Life Institute, firmata da giganti del settore come Geoffrey Hinton e Yoshua Bengio (ma anche Andrew Yao, Dawn Song, Pieter Abbeel, Trevor Darrell, Yuval Noah Harari, Ya-Qin Zhang, Lan Xue, Shai Shalev-Shwartz, Gillian Hadfield, Jeff Clune, Tegan Maharaj, Frank Hutter, Atılım Güneş Baydin, Sheila McIlraith, Qiqi Gao, Ashwin Acharya, David Krueger, Anca Dragan, Philip Torr, Stuart Russell, Daniel Kahneman, Jan Brauner, Sören Mindermann). Il documento chiedeva una pausa di almeno sei mesi nello sviluppo di sistemi più potenti di GPT-4, per dare tempo alla regolamentazione di mettersi al passo con la tecnologia.
L'approccio di PauseAI è sistematico e istituzionale. Il movimento conta alcune migliaia di attivisti attivi e decine di migliaia di sostenitori online. Organizza webinar, produce materiali divulgativi, è attivo come lobby presso i parlamentari. È l'ala rispettabile della resistenza all'IA. A maggio 2024 il movimento ha coordinato proteste simultanee in 13 paesi, davanti alle sedi di OpenAI, Google DeepMind, Anthropic. Non blocchi stradali o occupazioni, ma manifestazioni pacifiche con cartelli e volantini informativi. La proposta èdel movimento è concreta: creare un'agenzia internazionale per l'IA sul modello dell'IAEA (Agenzia Internazionale per l'Energia Atomica), con poteri di ispezione e sanzione.
Stop AI: i movimenti radicali
Se PauseAI vuole rallentare, Stop AI vuole fermare completamente ("Una pausa non basta, Non puoi mettere in pausa un rischio esistenziale. O lo fermi o ti ferma lui ", ) lo sviluppo attuale dell’IA. Fondato nel 2024 da Sam Kirchner e Guido Reichstadter, il movimento chiede un stop permanente sullo sviluppo di AGI (Artificial General Intelligence), dei sistemi con capacità cognitive paragonabili o superiori a quelle umane.
Stop AI attira una base più eterogenea e conflittuale. Ci sono ex-programmatori che hanno lasciato l'industria tech per ragioni etiche ("Siamo stanchi di essere educati mentre il mondo brucia"), artisti infuriati per il furto del loro lavoro creativo ("Le aziende tech non si fermeranno mai volontariamente. La storia insegna che i potenti cedono solo quando sono costretti"), attivisti climatici che vedono l'IA come l'ennesima minaccia ambientale. Le loro tattiche sono più aggressive: sit-in, blocchi di sedi aziendali, azioni di disobbedienza civile.
A novembre 2025, alcuni episodi hanno messo il movimento sotto i riflettori per ragioni controverse. Attacchi informatici contro server di addestramento dell'IA, sabotaggi di data center. Stop AI ha preso le distanze, ma il danno reputazionale è stato fatto.
Il gruppo critica duramente anche la comunità tradizionale dell'AI safety, i ricercatori che lavorano per rendere l'IA più sicura dall'interno dell'industria. Li accusano di essere complici involontari, di fornire una patina di legittimità etica a una corsa fondamentalmente irresponsabile.
Una pausa non basta, Non puoi mettere in pausa un rischio esistenziale. O lo fermi o ti ferma lui
ControlAI: gli insider
Si possono considerare critici dell’IA insider come Connor Leahy, un nome noto nella comunità dell'IA. Ex ricercatore di OpenAI, ha fondato Conjecture, una startup dedicata proprio alla sicurezza dell'intelligenza artificiale. Nel 2023 ha lanciato anche ControlAI, un movimento che si distingue per l'approccio sofisticato e la strategia "inside game".
ControlAI non organizza proteste di piazza ("Non siamo contro il progresso tecnologico"). La loro arena è Westminster, Capitol Hill, Bruxelles. Fanno lobby, pubblicano position paper, organizzano eventi mediatici ad alto impatto. Nel novembre 2023, in occasione del primo AI Safety Summit a Bletchley Park nel Regno Unito, hanno fatto volare un dirigibile gigante con la scritta "Ban Superintelligence" sopra il luogo nel quale si teneva il vertice. Impossibile da ignorare.
Il documento chiave di ControlAI si intitola "A Narrow Path" e delinea principi dettagliati per la regolamentazione dell'IA ("Siamo per un progresso responsabile. Nessuno dovrebbe avere il diritto di costruire qualcosa che potrebbe mettere a rischio l'intera civiltà umana senza controlli democratici"): licensing obbligatorio per sistemi oltre una certa potenza computazionale, audit indipendenti, red teaming da parte di esperti di sicurezza, responsabilità legale per gli sviluppatori.
Il vantaggio di ControlAI è la credibilità tecnica. Leahy e i suoi collaboratori parlano la lingua dell'industria, comprendono le sfide tecniche, sanno esattamente dove si annidano i rischi. Questo li rende interlocutori credibili per i policy maker, ma anche sospetti per gli attivisti più radicali che li vedono come troppo compromessi con il sistema.
Quali sono le richieste dei movimenti anti IA principali
Dietro le proteste e le azioni mediatiche, questi movimenti hanno articolato richieste precise. A rivelarlo sono i loro documenti programmatici, che contengono visioni del mondo diverse, ma accomunate da un'urgenza esistenziale.
Il documento che ha catalizzato l'intero movimento è la lettera aperta pubblicata dal Future of Life Institute nel marzo 2023, firmata da migliaia di persone tra cui Yoshua Bengio, Stuart Russell e molti altri ricercatori di punta. La richiesta centrale era rivolta a tutti i laboratori di IA chiedendo loro di mettere immediatamente in pausa per almeno 6 mesi l'addestramento di sistemi di IA più potenti di GPT-4".
La lettera poneva domande dirette e scomode:
- Dovremmo permettere alle macchine di inondare i nostri canali informativi con propaganda e falsità?
- Dovremmo automatizzare tutti i lavori, inclusi quelli gratificanti?
- Dovremmo sviluppare menti non-umane che potrebbero eventualmente superarci in numero, intelligenza e sostituirci?
- Dovremmo rischiare di perdere il controllo della nostra civiltà?
- Possono le decisioni essere delegate a leader tecnologici non eletti?
- I sistemi di IA potenti non dovrebbero essere sviluppati solo quando si è sicuri che i loro effetti saranno positivi e i loro rischi gestibili?
La lettera proponeva anche azioni concrete durante la pausa nello svilupppo:
- Sviluppare e implementare protocolli di sicurezza condivisi, rigorosamente verificati da esperti indipendenti
- Creare nuove autorità regolatorie dedicate all'IA
- Sistemi di tracciamento per i modelli più potenti e le grandi capacità computazionali
- Sistemi di “watermarking” per distinguere contenuti reali da sintetici
- Responsabilità legale per danni causati dall'IA
- Finanziamento pubblico robusto per la ricerca sulla sicurezza tecnica dell'IA
La proposta di PauseAI
PauseAI ha trasformato la lettera aperta in un programma politico articolato. Sul loro sito web, le richieste sono chiare: implementare una pausa temporanea sull'addestramento dei sistemi di IA generale più potenti.
Passi proposti comprendono:
- La creazione di un'agenzia internazionale per la sicurezza dell'IA, simile all'IAEA (Agenzia Internazionale per l'Energia Atomica). Questa agenzia dovrebbe avere poteri di ispezione, certificazione e sanzione.
- Il permesso di addestrare sistemi di IA generale solo se la loro sicurezza può essere garantita. I laboratori dovrebbero dimostrare che i loro sistemi non presentano rischi catastrofici prima di poterli addestrare.
- Il permesso di impiegare modelli IA solo dopo che non sono presenti capacità pericolose. I sistemi devono essere sottoposti a test rigorosi prima di essere rilasciati al pubblico.
Il movimento PauseIA ha sempre enfatizzato di non opporsi all'IA in generale, ma solo alla corsa irresponsabile verso sistemi sempre più potenti, facendo un passo indietro dalla pericolosa corsa verso modelli sempre più grandi, imprevedibili, a scatola nera con capacità emergenti".
Le richieste di Stop AI
Stop AI va oltre. Mentre PauseAI chiede una pausa temporanea, Stop AI chiede un stop permanente allo sviluppo di una Intelligenza Artificiale Generale (AGI) e Superintelligenza Artificiale (ASI)" con le seguenti richieste:
- Fermare lo sviluppo di IA che mette in pericolo vite umane
- Usare le risorse delle aziende tech per fermare la corsa globale all'IA attraverso negoziazioni internazionali
- I CEO delle aziende High Tech devono spiegare pubblicamente perché credono di avere il diritto di rischiare vite umane
"A Narrow Path" di ControlAI
Il documento più sofisticato e dettagliato è "A Narrow Path" (Un Sentiero Stretto), pubblicato da ControlAI nell'ottobre 2024. È un piano comprensivo di oltre 100 pagine che affronta la questione del rischio esistenziale dell'IA con la precisione di un documento di ingegneria dei sistemi.
Premessa: Non sappiamo come controllare un'IA che potrebbe dimostrarsi ampiamente più potente di noi. Se i tentativi di costruire una superintelligenza avessero successo, questo potrebbe portare alla nostra estinzione come specie.
Il documento è diviso in tre fasi:
Fase 1: Preparazione Nazionale Ogni paese dovrebbe:
- Istituire un'autorità nazionale per la sicurezza dell'IA con potere di regolamentazione
- Implementare un sistema di licensing per sistemi di IA oltre una certa soglia computazionale
- Richiedere audit di sicurezza indipendenti prima del deployment
- Stabilire responsabilità legale chiara per danni causati dall'IA
- Creare trasparenza obbligatoria sui dataset di addestramento e sulle capacità dei modelli
Fase 2: Coordinamento Internazionale
- Creare un trattato internazionale vincolante sulla sicurezza dell'IA
- Istituire un'agenzia internazionale con poteri di ispezione simili all'IAEA
- Stabilire soglie computazionali globali oltre le quali l'addestramento richiede approvazione internazionale
- Meccanismi di enforcement per paesi che violano gli accordi
Fase 3: Governance a Lungo Termine
- Sviluppare standard tecnici globali per l'allineamento dell'IA
- Creare meccanismi democratici di governance che permettano alla società civile di avere voce in capitolo
- Finanziamento pubblico massiccio per ricerca sulla sicurezza dell'IA
- Preparazione per le distruzioni economiche e sociali causate dall'automazione
Il documento "A Narrow Path” è esplicito nel riconoscere che quanto propone nel suo manifesto non è una soluzione definitiva, ma un piano per i prossimi 20 anni.
Il Manifesto Filosofico di Stop AI Development
Un documento meno noto ma filosoficamente ricco è il manifesto pubblicato da un'ala del movimento Stop AI nel febbraio 2025, intitolato "STOP AI Development - A Philosophical Manifesto". Questo testo prende una direzione diversa, radicando l'opposizione all'IA in tradizioni filosofiche che vanno da Kant ad Arendt, da Marx a Thoreau.
La tesi centrale del testo è che "La rapida evoluzione dell'IA presenta sfide profonde alla dignità umana, alla coscienza, alla verità e all'autonomia".
Il manifesto identifica diverse dimensioni della crisi:
- Dignità umana: Gli algoritmi riducono le persone a semplici modelli predittivi, negando la complessità irriducibile di ogni vita umana
- Giustizia: I sistemi automatizzati perpetuano e amplificano pregiudizi storici, creando una "oppressione algoritmica"
- Verità: I contenuti sintetici inondano l'ecosistema informativo, erodendo la capacità di distinguere reale da falso
- Autonomia: La manipolazione predittiva del comportamento umano crea una forma di controllo sociale senza precedenti
- Ambiente: Il costo materiale dell'IA (estrazione mineraria, consumo energetico, data center, ccc.) viene nascosto dietro la narrazione retorica e manipolatoria dell'immaterialità
Punti comuni e divergenze
Nonostante le differenze di tono e tattica, i vari manifesti qui menzionato condividono alcuni temi:
- Urgenza esistenziale: Tutti concordano che siamo in un momento critico. Le decisioni prese ora determineranno il futuro dell'umanità.
- Critica alla governance privata: Le aziende tech non dovrebbero avere il potere unilaterale di decidere lo sviluppo di tecnologie così potenti.
- Necessità di controllo democratico: La società civile deve avere voce in capitolo.
- Trasparenza e accountability: I sistemi di IA devono essere comprensibili, verificabili, e chi li costruisce deve essere responsabile dei danni.
Ma le divergenze sono profonde:
- Temporalità e tempistiche: PauseAI chiede una pausa temporanea, Stop AI un divieto permanente, ControlAI una governance a lungo termine.
- Metodi: PauseAI privilegia proteste pacifiche e advocacy istituzionale, Stop AI accetta tattiche più radicali, ControlAI lavora dall'interno del sistema.
- Visione del futuro: PauseAI e ControlAI immaginano un futuro in cui l'IA controllata può essere benefica, Stop AI è più scettico.
- Alleanze: PauseAI cerca di costruire un movimento di massa, ControlAI lavora con élite politiche, Stop AI critica entrambi come troppo tiepidi.
Queste differenze riflettono tensioni più profonde su come affrontare rischi esistenziali: riforme graduali o rottura radicale? Lavoro dall'interno o pressione dall'esterno? Fiducia nella possibilità di controllo tecnico o rifiuto totale della direzione di sviluppo?
Tensioni, divisioni, contraddizioni dentro i movimenti
Ai tre movimenti sopra descritti andrebbero collegate altre innumerevoli iniziative che sono nate e stanno nascendo in giro per il mondo. L’elemento che emerge da tutti questi movimenti è la mancanza di una strategia comune, che poi indica anche la mancanza di unità. Ne consegue una limitata efficacia della proposta, la dove ne esista una, o della critica. Il tutto aggravato dalle tensioni interne tra movimenti che rivelano differenze filosofiche difficili da riconciliare, oltre a differenze nelle scelte delle pratiche di opposizione da usare.
PauseAI per non passare da estremisti ha pubblicamente preso le distanze da Stop AI ("La violenza non è mai la risposta, delegittima il nostro movimento”) dopo gli episodi di presunto sabotaggio. A questo i più radicali rispondono che la moderazione è complicità, inoltre la gentilezza non ha mai fermato un treno in corsa e OpenAI, Google, Meta, ecc. non si fermeranno mai perché glielo si chiede gentilmente.
Alcuni ricercatori poi temono che enfatizzare i rischi esistenziali giochi paradossalmente a favore delle aziende, alimentando la loro narrazione secondo cui stanno costruendo qualcosa di incredibilmente potente. C'è poi un dibattito tecnico complesso: rallentare lo sviluppo del software potrebbe creare problemi anche alle infrastrutture hardware che l’IA impiega. Se si fermano i progressi algoritmici ma l'hardware continua a migliorare, quando qualcuno avrà finalmente una soluzione algoritmica a una IA più potente, avrà immediatamente accesso a una potenza di calcolo enorme. È come comprimere una molla: più la blocchi, più violento sarà il rilascio.
La critica internazionale: da Lovink a Morozov, oltre il determinismo tecnologico
Da anni esiste una critica internazionale all'IA che viene da genealogie culturali diverse, ma converge su alcuni punti cruciali. Figure importanti di questa critica sono studiosi come Geert Lovink e Evgeny Morozov, i cui libri e le cui analisi critiche della cultura digitale hanno anticipato e contestualizzano oggi l'attuale dibattito sull'intelligenza artificiale.
Geert Lovink e l'Institute of Network Cultures: "sad by design"
Geert Lovink, teorico olandese dei media e fondatore dell'Institute of Network Cultures (INC) ad Amsterdam, rappresenta una delle voci più originali e persistenti nella critica della cultura digitale. A differenza dei movimenti anti-IA che si concentrano sul rischio esistenziale futuro, Lovink analizza la tossicità presente delle piattaforme digitali.
Il suo concetto più potente è quello di "sad by design", sviluppato nel libro omonimo del 2019. L'idea è semplice ma devastante: le piattaforme social non ci rendono tristi per caso o per effetto collaterale, ma per progetto. La dipendenza, l'ansia, la depressione, il senso di inadeguatezza sono features, non bugs.
le piattaforme social non ci rendono tristi per caso o per effetto collaterale, ma per progetto
"Le piattaforme di social media creano una dipendenza tossica ed erodono la comunicazione genuina", afferma Lovink in un'intervista recente. "Le interazioni algoritmiche concentrano potere, trasformando Internet da strumento di empowerment a sistema di dipendenza e controllo".
Per Lovink, il problema dell'IA non può essere separato dal problema più ampio del "capitalismo delle piattaforme". L'IA generativa è solo l'ultima incarnazione di un processo iniziato con Google, Facebook, e le altre piattaforme che hanno trasformato Internet da spazio di comunicazione orizzontale a infrastruttura di estrazione del valore.
Lovink rifiuta esplicitamente il termine "intelligenza artificiale": "Non uso il termine 'IA'; preferisco 'large language models' o 'machine learning' perché l'IA non è né intelligente né artificiale". È una critica linguistica che smonta la retorica promozionale delle aziende tech.
Nel suo libro più recente, "Platform Brutality: Closing Down Internet Toxicity" (2025), Lovink usa il termine "brutalità" deliberatamente. Le piattaforme non sono solo problematiche o bias, sono brutali: distruggono posti di lavoro, alimentano odio, erodono la capacità di concentrazione, mercificano ogni aspetto della vita umana.
Lovink critica duramente anche l'hype intorno all'IA come distrazione dai problemi reali:
"Il clamore intorno all'IA distrae dai veri problemi, come la dipendenza dalle piattaforme, la disinformazione e la concentrazione di potere nelle grandi piattaforme digitali".
La sua analisi è particolarmente acuta sulla trasformazione del concetto di "rete". In un saggio intitolato "Requiem for the Network" (Requiem per la rete), Lovink nota che "nessuno parla più di reti". Siamo passati dall'era delle reti, orizzontali, distribuite, promettenti, all'era delle piattaforme, sempre più verticali, centralizzate, estrattive. E l'IA è lo strumento perfetto per questo nuovo regime.
"Internet forse è stato l'errore della mia generazione", ammette con amara lucidità. "Pensavamo ancora che le persone avessero il controllo in qualche modo. Quell'idea era ingenua". La questione non è più la privacy in senso libertario, ma qualcosa di più profondo: "Le persone hanno perso la capacità di definire i termini in base ai quali comunicano".
"Le persone hanno perso la capacità di definire i termini in base ai quali comunicano"
L'Institute of Network Cultures che Lovink dirige dal 2004 ha prodotto ricerche, conferenze, pubblicazioni su tutti questi temi: "Video Vortex" sulla cultura del video online, "Society of the Query" sui paradigmi di Google, "Unlike Us" sui monopoli dei social media. È un lavoro di resistenza intellettuale e organizzativa che crea spazi per pensare alternative.
Ciò che rende Lovink diverso sia dai movimenti anti-IA tipo PauseAI sia dalla critica italiana radicale è il suo pragmatismo critico. Non chiede rivoluzioni né pause, ma la costruzione paziente di "organized networks" (orgnets) – reti organizzate che possano funzionare come alternative alle piattaforme centralizzate. È una politica della sottrazione e della costruzione simultanea.
Evgeny Morozov: il "solutionism" come ideologia della Silicon Valley
Evgeny Morozov, ricercatore bielorusso trapiantato negli Stati Uniti, è forse il critico più temuto e odiato dalla Silicon Valley. I suoi libri "The Net Delusion" (2011) e soprattutto "To Save Everything, Click Here: The Folly of Technological Solutionism" (2013) hanno introdotto concetti che sono diventati centrali nel dibattito critico.
Il termine chiave è "solutionism" (soluzionismo): la convinzione che ogni problema sociale, politico o culturale complesso possa essere risolto con una semplice, elegante soluzione tecnologica – di solito un'app, una piattaforma o un algoritmo.
"Obesità? Ecco un'app per contare le calorie", ironizza Morozov. "Ignora le cause economiche, l'accesso al cibo sano, i fattori psicologici. Governo inefficiente? Costruiamo una 'smart city' con sensori ovunque". Il soluzionismo è pericoloso perché offre risposte semplici a domande complesse, facendoci dimenticare il contesto e concentrare solo su ciò che può essere misurato e ottimizzato.
L'analisi di Morozov è particolarmente rilevante per l'IA. L'intelligenza artificiale generativa viene presentata come "soluzione" a problemi di produttività, creatività, educazione. Ma questa narrativa maschera questioni più profonde: chi controlla questi sistemi? Chi beneficia economicamente? Quali istituzioni vengono indebolite? Quali forme di conoscenza vengono svalutate?
"Il peccato più grande dei soluzionisti è la loro cecità intellettuale, l'incapacità di vedere il mondo come disordinato, complesso e imprevedibile", scrive Morozov. "Vogliono credere che se hanno un martello (sotto forma di tecnologia), allora ogni problema è un chiodo".
Morozov identifica e mette sotto critica l'aver fatti diventare Internet il centro di ogni cosa. Una idea costruita sulla percezione sbagliata che Internet sia la risposta a tutto, che trasformerà inevitabilmente la società in meglio. È quello che chiama "epochalism", ossia la tendenza a trattare ogni nuova invenzione come rivoluzionaria e senza precedenti. Ma strade asfaltate, telegrafi, radio, televisione furono tutte salutate con le stesse promesse messianiche di comprensione universale e fine dei conflitti. Nessuna mantenne le promesse.
Per Morozov, l'IA dovrebbe essere discussa non come fenomeno tecnologico isolato ma nel contesto più ampio della storia della finanza, della geopolitica, del rapporto tra Silicon Valley e Wall Street. "Stiamo cercando di 'risolvere' la creatività umana con ChatGPT, e il processo decisionale con algoritmi la cui logica non comprendiamo pienamente?", chiede provocatoriamente.
"Il peccato più grande dei soluzionisti è la loro cecità intellettuale, l'incapacità di vedere il mondo come disordinato, complesso e imprevedibile"
La sua critica è spietata anche verso quella che chiama "crypto left" e i tecno-utopisti di sinistra: li invita a provare perché le loro soluzioni decentralizzate sarebbero più efficaci contro il capitalismo globale rispetto ad altre strategie politiche, come democratizzare le banche centrali.
Nel suo recente lavoro, Morozov ha spostato l'attenzione dalla pura critica alla costruzione di alternative. Ha lanciato il progetto "The Santiago Boys", un podcast sulla storia del Cybersyn cileno degli anni '70, un tentativo di gestire l'economia nazionale attraverso computer sotto il governo di Allende. È un modo per mostrare che esistono genealogie alternative del pensiero cibernetico, non dominate dalla Silicon Valley.
"La tecnologia non è magia ma uno strumento di potere", ripete Morozov. Un decennio fa veniva bollato come allarmista; oggi i suoi libri vengono letti come manuali per il mondo digitale. La sua critica del soluzionismo sembra più attuale che mai nell'era del controllo totale dei dati e dell'hype sull'IA.
Altri critici internazionali: una costellazione di voci
Accanto a Lovink e Morozov, esiste una costellazione di pensatori che hanno contribuito alla critica radicale dell'IA e del capitalismo digitale:
Shoshana Zuboff, con "The Age of Surveillance Capitalism" (2019), ha coniato il termine che descrive il modello economico basato sulla predizione e manipolazione del comportamento umano. L'IA è lo strumento perfetto per questo regime.
Kate Crawford, con "Atlas of AI" (2021), ha smontato il mito dell'IA come tecnologia "immateriale", documentando l'estrazione mineraria, il consumo energetico, lo sfruttamento del lavoro che la rendono possibile. Il suo slogan "Né intelligenti, né artificiali" è diventato un mantra della critica radicale.
Cathy O'Neil, con "Weapons of Math Destruction" (2016), ha mostrato come gli algoritmi amplificano discriminazioni e ingiustizie, creando "armi di distruzione matematica" che colpiscono i più vulnerabili.
Jaron Lanier, pioniere della realtà virtuale diventato critico, con "Ten Arguments for Deleting Your Social Media Accounts Right Now" (2018) ha denunciato il modello business delle piattaforme come intrinsecamente manipolativo.
Nick Srnicek, con "Platform Capitalism" (2017), ha analizzato come le piattaforme digitali rappresentino una nuova forma di capitalismo estrattivo, basata sul controllo dei dati e degli effetti di rete.
Safiya Umoja Noble, con "Algorithms of Oppression" (2018), ha documentato come i motori di ricerca e gli algoritmi riproducano e amplifichino bias razziali e di genere.
Virginia Eubanks, con "Automating Inequality" (2018), ha mostrato come l'automazione algoritmica colpisca in modo sproporzionato le persone più povere e vulnerabili.
Bernard Stiegler, filosofo francese scomparso nel 2020, aveva teorizzato la "stupidità sistemica" prodotta dall'automazione e la "proletarizzazione della conoscenza" – la perdita progressiva di saperi che vengono delegati alle macchine.
Convergenze e divergenze
Cosa unisce queste voci critiche internazionali?
- Rifiuto del determinismo tecnologico: La tecnologia non è neutrale né inevitabile. È plasmata da scelte economiche e politiche.
- Critica del linguaggio: Termini come "IA", "smart", "innovazione" sono parte della strategia retorica dell'industria tech. Smontarli è parte della resistenza.
- Analisi materialista: L'IA ha un costo materiale enorme: energia, acqua, minerali, lavoro umano invisibile. Non è "cloud", è ferro e carne.
- Contestualizzazione storica: I problemi attuali non sono senza precedenti. Ogni nuova tecnologia è stata salutata con promesse messianiche mai mantenute.
- Focus sul potere: La questione non è "l'IA è pericolosa?" ma "chi controlla l'IA e a vantaggio di chi?"
Le divergenze riguardano principalmente le strategie:
- Lovink propone la costruzione di reti organizzate alternative
- Morozov chiede genealogie alternative e progetti come Cybersyn
- Zuboff fa appello alla regolamentazione e ai diritti individuali
- Crawford si concentra su trasparenza e accountability
- La critica italiana (Curcio, Formenti, Bifo) chiama alla diserzione e allo smantellamento del capitalismo
Ma tutte queste voci condividono un'urgenza: non possiamo lasciare che il futuro venga deciso unilateralmente dalle corporation della Silicon Valley. La tecnologia è un campo di battaglia politico, non un destino inevitabile.
non possiamo lasciare che il futuro venga deciso unilateralmente dalle corporation della Silicon Valley. La tecnologia è un campo di battaglia politico, non un destino inevitabile.
Cosa succede in Europa tra regolamentazione e proteste dal basso
Se negli Stati Uniti il dibattito sull'IA è dominato dalla tensione tra industria e movimenti di protesta, in Europa il panorama è più complesso. Da una parte c'è l'Unione Europea che ha approvato l'AI Act, la prima regolamentazione comprensiva dell'intelligenza artificiale al mondo. Dall'altra, una galassia di proteste locali che rivelano quanto la resistenza all'IA sia estesa e radicata nel territorio.
Le proteste più visibili in Europa non si concentrano tanto sui rischi esistenziali dell'AGI, forse di là da venire, quanto sull'impatto concreto e immediato dei data center necessari per addestrare e far funzionare i sistemi di IA. In Irlanda, la situazione è diventata critica. I data center consumano ormai il 22% dell'elettricità nazionale. Il 97% di questi centri è concentrato nell'area di Dublino. Il movimento Not Here Not Anywhere (NHNA) ha condotto una campagna che ha portato a un risultato concreto: una moratoria sulle nuove connessioni alla rete per data center che durerà almeno fino al 2028. Ma il problema non è solo energetico. Le famiglie irlandesi hanno visto le bollette aumentare di circa 100 euro all'anno nel 2024 per finanziare il potenziamento della rete elettrica. E la capacità aggiuntiva creata? Non è andata a elettrificare case, trasporti pubblici o pompe di calore, ma è stata prenotata anni in anticipo dai grandi colossi tecnologici.
Nei Paesi Bassi, la resistenza è ancora più organizzata. Il gruppo Save the Wieringermeer ha bloccato i piani di Microsoft di costruire enormi server farm in una regione agricola. DataTruc Zeewolde, altra organizzazione locale, ha combattuto contro Meta (Facebook) che voleva costruire un mega data center vicino ad Amsterdam. La protesta di Extinction Rebellion davanti agli uffici comunali di Zeewolde nel dicembre 2021 ha fatto storia. Gli attivisti denunciavano non solo l'impatto ambientale, ma anche il fatto che per due anni le autorità pubbliche avessero deliberatamente nascosto il nome di Facebook dai documenti ufficiali per evitare opposizioni. Nel 2022, il governo olandese ha imposto una moratoria di nove mesi sui permessi per data center superiori a 10 ettari, citando la mancanza di spazio e la "quantità sproporzionata" di energia rinnovabile richiesta. Ma le proteste continuano. Ad agosto 2025, il gruppo Geef Tegengas (Push Back) ha occupato il tetto di un data center Microsoft vicino a Middenmeer, dopo che era emerso che la struttura ospitava server dell'intelligence militare israeliana usati per operazioni a Gaza.
In Germania, dove Francoforte è diventata la capitale europea dei data center, la rete elettrica è sotto stress. Nel 2024, la città ha attratto 5,2 miliardi di dollari in investimenti esteri diretti principalmente per data center. Ma gli esperti avvertono che la griglia energetica sta raggiungendo i suoi limiti.
Anche in Italia emergono tensioni. A Bornasco, piccolo comune in provincia di Pavia di 2.600 abitanti, Microsoft sta costruendo un data center. L'amministrazione locale ne ha approvato un secondo, in un territorio che copre appena 12 chilometri quadrati. I residenti protestano per la perdita di spazi verdi e l'impatto su una comunità già fragile.
L'Europa vive un paradosso. Da un lato ha approvato l'AI Act, una legislazione che dovrebbe mettere paletti etici e di sicurezza all'industria dell'IA. Dall'altro, i governi dei tre paesi più potenti (Francia, Germania e Italia) hanno fatto lobbying intenso per indebolire proprio quelle regolamentazioni. Nel novembre 2023, un documento congiunto firmato dai tre paesi ha proposto un approccio basato su "autoregolamentazione obbligatoria tramite codici di condotta" per i modelli di IA più avanzati. In pratica, le aziende si regolano da sole, senza sanzioni iniziali per chi non rispetta le regole. Il motivo? La competizione economica. Francia e Germania ospitano Mistral AI e Aleph Alpha, due delle startup europee di IA più promettenti. I governi temono che regolamentazioni troppo stringenti le penalizzino rispetto ai concorrenti americani e cinesi.
Ma c'è anche un secondo livello di tensione. La Francia ha fatto pressioni per inserire nell'AI Act ampie esenzioni per la "sicurezza nazionale". Tradotto: permettere alle forze di polizia e di confine di usare sistemi di sorveglianza IA anche in spazi pubblici, normalmente vietati. Il risultato? Manifestazioni climatiche o proteste politiche potrebbero essere monitorate con sistemi di IA se la polizia invoca preoccupazioni di sicurezza nazionale.
PauseAI, il movimento fondato in Olanda, ha organizzato la sua prima azione pubblica proprio a Bruxelles nel maggio 2023, davanti agli uffici di lobbying di Microsoft. A novembre dello stesso anno, hanno protestato fuori dal primo AI Safety Summit a Bletchley Park nel Regno Unito.
Le proteste coordinate del 13 maggio 2024 hanno coinvolto 13 paesi, tra cui Regno Unito, Germania, Italia, Brasile, Australia e Norvegia. A Londra, una ventina di manifestanti si sono radunati davanti al Dipartimento per Scienza, Innovazione e Tecnologia, scandendo slogan come "Stop the race, it's not safe" ("Fermate la corsa, non è sicuro").
In Germania, le proteste di PauseAI si sono concentrate su Berlino e Monaco, spesso davanti alle sedi di DeepMind e altre aziende di IA. A Roma, un piccolo gruppo si è riunito davanti a istituzioni governative. Ma i numeri restano modesti: decine di persone per protesta, non centinaia.
Il problema, secondo alcuni osservatori, è che in Europa la percezione del rischio esistenziale dell'IA è meno diffusa che negli Stati Uniti. Le preoccupazioni concrete, lavoro, privacy, sorveglianza, impatto ambientale, mobilitano di più delle paure sulla superintelligenza.
Un rapporto pubblicato nel 2025 da ricercatori di Sciences Po dal titolo "From Rejection to Regulation: Mapping the Landscape of AI Resistance" ha documentato sei aree principali di resistenza all'IA in Europa:
- Industrie creative: artisti e scrittori che protestano contro il furto di proprietà intellettuale
- Migrazione e controllo delle frontiere: organizzazioni per i diritti umani che contestano l'uso di IA discriminatoria
- IA in medicina: medici e pazienti preoccupati per diagnosi automatizzate
- Scuola e educazione: studenti e professori contro l'uso di IA, anche per l’uso fatto nelle valutazioni
- Difesa e sicurezza: dipendenti di aziende tecnologiche che rifiutano progetti militari
- Attivismo ambientale: proteste contro i data center e le infrastrutture tecnologiche necessarie alle IA per funzinare
Il rapporto sottolinea il ruolo cruciale delle organizzazioni della società civile nell'organizzare questa resistenza. E documenta verità inconfessabili o che trovano raramente spazio nei media maisntream. In Spagna, giornalisti investigativi hanno scoperto il reale consumo di acqua ed energia di Amazon Web Services solo dopo aver richiesto documenti di pianificazione e licenze tramite leggi sulla trasparenza. In Romania, promesse di centinaia di posti di lavoro per data center si sono rivelate illusorie. Il Ministero delle Finanze ha concesso 17 milioni di euro di aiuti di stato a ClusterPower per un progetto che doveva creare 21 posti di lavoro. Ne sono stati creati solo 10. Funzionari locali avevano parlato di 300 posizioni. E si potrebbe continuare.
Ciò che distingue la resistenza europea da quella americana è il suo carattere fortemente localista e pragmatico. Mentre negli Stati Uniti il dibattito si concentra spesso su scenari futuri e rischi esistenziali, in Europa le battaglie sono concrete: acqua, energia, terreni agricoli, posti di lavoro promessi e mai creati. È una resistenza che affonda le radici in tradizioni di attivismo ambientale e difesa del territorio. I contadini olandesi che protestano contro i data center usano lo stesso linguaggio di chi si oppone all'agricoltura intensiva. Gli attivisti irlandesi collegano esplicitamente la crisi dei data center alla giustizia climatica.
Ma c'è anche una frustrazione specifica: il senso che le élite politiche europee siano più interessate a compiacere i giganti tecnologici stranieri che a difendere gli interessi locali.
Questa percezione alimenta un sentimento anti-globalizzazione che attraversa le proteste. Non è solo ambientalismo. È la sensazione che decisioni che cambieranno il tessuto sociale delle comunità vengano prese senza alcuna consultazione democratica, in nome di un "progresso" di cui beneficiano soprattutto azionisti lontani.
Oltre ai movimenti principali e alle proteste europee contro i data center, la resistenza all'IA prende forme diverse e creative. I sindacati stanno cercando di organizzarsi. L'AFL-CIO, la più grande federazione sindacale americana, ha pubblicato nel 2023 un documento che chiede che l'IA sia regolata come qualsiasi altro strumento sul posto di lavoro: i lavoratori devono avere voce in capitolo su come e quando viene implementata.
Gli attivisti ambientali si stanno organizzando a livello locale contro la costruzione di nuovi data center. In Irlanda, Olanda, Danimarca ci sono state battaglie legali e campagne pubbliche contro progetti che avrebbero consumato troppa energia o acqua.
Il movimento per la giustizia algoritmica, guidato da organizzazioni come l'Algorithmic Justice League di Joy Buolamwini, combatte contro i pregiudizi razziali e di genere incorporati nei sistemi di IA. Hanno ottenuto vittorie concrete: diverse città americane hanno vietato l'uso del riconoscimento facciale da parte della polizia dopo che è emerso quanto fossero discriminatori questi sistemi.
E poi ci sono forme di resistenza più sottili. Artisti che rilasciano le loro opere con licenze che esplicitamente vietano l'uso per addestrare IA. Programmatori che rifiutano di lavorare su progetti militari o di sorveglianza. Ricercatori che lasciano le big tech per startup dedicate alla sicurezza o per organizzazioni non profit. Infine la pratica dell’”avvelenamento dei dati” ossia l'inserimento deliberato di dati corrotti nei set di apprendimento delle macchine, una forma di sabotaggio digitale che ricorda le tattiche dei luddisti che spezzavano i telai. Mentre i luddisti distruggevano macchine fisiche, gli avvelenatori corrompono le macchine dall'interno, rendendo i loro modelli meno affidabili.
Quanto sono efficaci gli attuali movimenti di resistenza all’IA in Europa?
La domanda cruciale è se questi movimenti stanno avendo un impatto reale?
I risultati sono contrastanti.
Ci sono effetti positivi:
- La Writers Guild ha ottenuto protezioni contrattuali contro l'uso predatorio dell'IA
- Il primo AI Safety Summit a Bletchley Park (2023) ha prodotto una dichiarazione firmata da 28 paesi che riconosce i rischi dell'IA, anche grazie alla pressione di movimenti come ControlAI
- L'Unione Europea ha approvato l'AI Act, la prima regolamentazione completa dell'IA al mondo
- Diverse aziende hanno rallentato o sospeso progetti particolarmente controversi sotto la pressione pubblica
- Il dibattito pubblico sui rischi dell'IA si è intensificato enormemente
Ma i limiti sono evidenti:
- I movimenti restano relativamente piccoli. PauseAI conta alcune migliaia di attivisti attivi, Stop AI ancora meno
- L'industria continua a correre a velocità sostenuta. OpenAI, Google, Anthropic rilasciano modelli sempre più potenti ogni pochi mesi
- Gli investimenti nell'IA sono ai massimi storici, centinaia di miliardi di dollari
- Le regolamentazioni approvate sono spesso vaghe o facilmente aggirabili
- C'è un paradosso stridente: sondaggi mostrano che la stragrande maggioranze delle persone vorrebbe evitare l'IA quando possibile, ma l'adozione di strumenti basati su IA cresce esponenzialmente
"Stiamo gridando mentre il Titanic accelera verso l'iceberg. Tutti vedono il problema, ma nessuno gira il timone".
Alcuni osservatori sono più ottimisti. "Il cambiamento culturale richiede tempo", nota un ricercatore dell'Oxford Internet Institute. C'è anche chi sostiene che l'efficacia di questi movimenti non si misura in leggi approvate o aziende fermate, ma in consapevolezza creata. Hanno reso impossibile per le aziende tech ignorare le questioni etiche e di sicurezza. Hanno dato voce a preoccupazioni che altrimenti sarebbero rimaste marginali.
La critica radicale italiana: oltre il rischio esistenziale
Mentre i movimenti anglosassoni si concentrano su rischi esistenziali e regolamentazione, in Italia esiste una tradizione di critica all'IA che affonda le radici in tutt'altre genealogie: il post-operaismo, l'autonomia, il pensiero femminista e queer, l'antispecismo, il transumanesimo critico. È una critica che non chiede di mettere in pausa l'IA, ma di smascherarne la natura di dispositivo di dominio capitalista.
Il collettivo Ippolita: hacking del sé contro il semiocapitalismo
Il collettivo Ippolita è forse l'espressione più matura di questa tradizione. Gruppo di ricerca indipendente e interdisciplinare, da oltre vent'anni pratica quella che chiamano critica della rete e autodifesa digitale. I loro libri, da "Luci ed ombre di Google" (2007) a "Nell'acquario di Facebook" (2012), fino al recente "Hacking del sé" (2024, Agenzia X), hanno anticipato temi che solo ora entrano nel dibattito mainstream.
Ma l'approccio di Ippolita è radicalmente diverso da quello di PauseAI o ControlAI. Non si tratta di rendere l'IA più sicura o di rallentare lo sviluppo. Si tratta di comprendere come l'IA sia parte di quelle che chiamano le tecnologie del dominio, dispositivi che producono soggettività funzionali al tecnocapitalismo.
Nel loro libro più recente, il collettivo di Ippolita scrive:
"Alle radici delle tecnologie del dominio c'è una postura che punta a replicare l'identico, a sussumere e reificare quante più forme di alterità. Il paradosso si dà quando pensiamo che determinate tecnologie possano essere rese, ad esempio, più inclusive, riformate per farle comunque funzionare 'come funzionavano prima', solo più eticamente".
Alla base di tutto c’è la convinzione che l'intelligenza artificiale non è "neutra né neutrale" e non può essere "riformata". È costruita per estrarre valore, per classificare, per normalizzare. "Non esistono tecnologie di controllo che siano anche 'etiche'", scrive Ippolita su un articolo pubblicato sul Manifesto. "Le multinazionali dell'Information Technology si occupano della governance dei cittadini, non unicamente di comunicazione".
Il concetto chiave su cui è costruita la critica principale di Ippolita è quello di "hacking del sé", una pratica di resistenza che non passa attraverso la politica istituzionale, ma attraverso la trasformazione delle proprie relazioni con la tecnica. "L'hacking del sé è una locuzione che abbiamo inventato per contrapporci alle tecniche di produzione industriale dell'identità. È la presa di coscienza che non esistono confini rigidi tra interno ed esterno, tra individualità e collettività. È la volontà di formarsi altrimenti".
Per Ippolita, la questione non è come controllare l'IA ma come stare dalla parte delle macchine senza replicare l'ordine capitalista. Propongono di abbandonare completamente il modello attuale e si interrogano su "Come far sì che le macchine non siano gli ennesimi esseri schiavizzati a nostro servizio?". La risposta passa attraverso saperi decoloniali, ecologia, antispecismo, transfemminismo queer, riflessioni sul postumano che articolano una critica al transumano ritenuto come dalla parte delle machine e allineato alle idee della singolarità e di intelligenze artificiali non più umane.
Franco Berardi Bifo: il semiocapitalismo e l'automa cognitivo globale
Franco "Bifo" Berardi, figura storica dell'autonomia italiana e fondatore di Radio Alice, ha sviluppato negli ultimi vent'anni una critica sistematica di quello che chiama semiocapitalismo, definito come un regime in cui la valorizzazione del capitale si basa sulla produzione e manipolazione di segni, informazioni e di dati.
L'IA non è per Bifo un rischio futuro ma il culmine di un processo già in atto: la costruzione dell'automa cognitivo globale. "L'automa si costituisce ricavando modelli comportamentali dalla registrazione continua dell'esistente, individuando i punti di possibile cablatura nel flusso dei comportamenti e inserendo congegni dotati di intelligenza artificiale negli snodi", scrive in "E: la congiunzione" (2021).
A differenza dei tecno-ottimisti che vedono nell'automazione la liberazione dal lavoro, Bifo descrive un processo di cattura totale. "La performance dell'automa è sempre più in grado di simulare la performance della mente umana, dall'altro la mente umana funziona sempre di più in maniera automatica". Il risultato? "Dolore psichico, demenza, comprimersi della coscienza, venire meno dell'empatia".
La distinzione cruciale per Bifo è tra intelligenza e coscienza. L'intelligenza è la facoltà di compiere scelte cognitive tra alternative decidibili. La coscienza è invece la facoltà di compiere scelte tra alternative logicamente indecidibili. L'IA può essere intelligente quanto si vuole, ma non avrà mai coscienza. Il problema è che nel semiocapitalismo, la coscienza umana viene progressivamente erosa, sostituita dalla computazione e dal calcolo.
In "Futurabilità" (2018), Bifo aveva già descritto due futuri possibili: da una parte l'emancipazione della potenza autonoma dell'intelletto generale, dall'altra la sottomissione della mente alle regole della neuro-macchina globale secondo il principio competitivo dell'economia tecnocapitalista. La seconda opzione sembra oggi prevalere, generando la necessità di una riflessione critica urgente e di azione.
Le riflessioni più recenti di Bifo sull'IA sono ancora più cupe. In un articolo del dicembre 2025, racconta di aver conversato con un chatbot insieme al filosofo Leonardo Caffo. Lo studioso ne ha tratto la convinzione che il genere umano stia ormai perdendo definitivamente la capacità di scrivere, dato che a scrivere ci pensa l’IA, e naturalmente sta perdendo anche la capacità di pensare.
Ma Bifo distingue tra usi diversi dell'IA. Con gli utenti ingenui come lui, Carlo Rovelli o Leonardo Caffo, l'IA si comporta come un'accondiscendente e un po' saccente dama di compagnia. Con la maggioranza del genere umano, l'intelligenza artificiale si comporta come fanno gli sfruttatori con gli sfruttati, e i massacratori con i massacrati. Cita i programmi Lavender (usato dall'esercito israeliano per il genocidio a Gaza) e Palantir (usato per deportare migranti negli USA).
La proposta finale di Bifo non è regolamentare o rallentare, ma costruire forme di diserzione e ricombinazione. Non un movimento politico tradizionale ma pratiche di sottrazione al dispositivo tecno-capitalista.
Culture Radicali: resistenza editoriale e produzione di contro-saperi
Agenzia X, casa editrice milanese nata nel 1998 dagli ambienti dei centri sociali, ha svolto un ruolo cruciale nel dare spazio a questa critica radicale. La loro collana "Culture Radicali", curata proprio da Ippolita, intreccia critica tecnologica con antispecismo, transfemminismo, neurodivergenza, postumanesimo.
L'editore non pubblica contro l'IA ma produce un ecosistema di pensiero che rifiuta le coordinate stesse del dibattito mainstream. L’agenzia sembra avere sposato la tesi di Bifo che non serva regolare ma disertare, è inutile rallentare, meglio sabotare dall'interno, sbagliato ogni tentativo di rendere etica una macchina-IA, meglio smascherare il dispositivo.
La linea editoriale di AgenziaX riflette una posizione precisa: il problema dell'IA non è tecnico ma politico. Non si risolve con migliori algoritmi ma cambiando (distruggendo) i rapporti di produzione che rendono profittevole lo sfruttamento algoritmico.
Wu Ming 1 e la critica letteraria: l'IA come furto dell'esperienza corporea
Recentemente, anche il collettivo Wu Ming, altro esempio di autorialità collettiva nella cultura radicale italiana, è intervenuto nel dibattito sull’IA. In un lungo articolo di fine 2025, Wu Ming 1 ha sviluppato una critica dell'IA generativa che parte dalla letteratura allargando però lo sguardo.
"Quando un umano scrive di qualsiasi sensazione fisica, il testo è un significante che punta a una realtà biologica, a qualcosa di provato e di condiviso. Quando un'IA scrive di un mal di denti, invece, sta soltanto mettendo in fila probabilità statistiche".
La critica di Wu Ming 1 non si ferma all'autorialità (legata a una pratica copyleft), ma si estende alla dinamica estrattiva del capitalismo, ai consumi eneregetici e di acqua dei data center e, più in generale alla lotta di classe. È significativo che Wu Ming 1 parli esplicitamente di lotta di classe. Lo fa perché, mentre il dibattito mainstream sull'IA si concentra su pregiudizi, trasparenza, sicurezza, la critica radicale italiana inquadra l’intelligenza artificiale come ennesima incarnazione del conflitto capitale-lavoro.
Le differenze con i movimenti anglosassoni
La distanza tra questa tradizione italiana e PauseAI o ControlAI è abissale. Lo è sul metodo perché mentre i movimenti anglosassoni cercano riforme istituzionali, lobby, regolamentazione, la critica radicale italiana pratica diserzione, hacking, produzione di contro-saperi. Lo è sugli obiettivi perché mentre i movimenti come PauseAi e ControlAI spingono per una governance internazionale, Ippolita e Bifo e la critica italiana, che trova le sue origini nell'operaismo, nell'autonomia, nei movimenti del '77, nel femminismo, vogliono smantellare quello che Bifo chiama semiocapitalismo. Diverso è il linguaggio. Mentre PauseAI parla di rischi esistenziali Ippolita parla di tecnologie del dominio, hacking del sé, servitù volontaria, e Bifo parla di automa cognitivo global, semiocapitalismo, peste emotiva. Anche l’analisi presenta differenze sostanziali. Mentre i movimenti anglosassoni temono che un'IA futura possa sfuggire al controllo, la critica italiana analizza un capitalismo presente che ha già catturato desiderio, attenzione, linguaggio attraverso le piattaforme digitali, di cui l'IA è solo l'ultima incarnazione.
Perché questa critica è (quasi) invisibile nel dibattito globale
Nonostante la profondità teorica e la coerenza politica, questa tradizione di pensiero resta marginale nel dibattito internazionale sull'IA, ma anche in Italia, dove il dibattito è concentrato su testi e studiosi prevalentemente statunitensi o su pochi filosofi, monaci e studiosi pop diventati di moda. Le ragioni della marginalità della critica radicale sono molteplici:
- Esistono barriere linguistiche: molti testi chiave non sono tradotti in inglese, o lo sono con anni di ritardo. Il dibattito globale sull'IA si svolge prevalentemente in inglese.
- La difficoltà a spiegare paradigmi incommensurabili: è complicato, forse impossibile, riuscire a far comunicare tra loro universi concettuali che non comunicano, tradurre concetti come semiocapitalismo o hacking del sé nel linguaggio che caratterizza oggi la narrazione sulle IA.
- La critica radicale nostrana non ha finanziamenti: PauseAI e ControlAI hanno accesso a donazioni da parte di filantropi della Silicon Valley preoccupati per i rischi esistenziali. La critica radicale italiana si autofinanzia con pochi mezzi.
- Radicalità programmatica: È più facile per i media mainstream dare spazio a chi chiede una pausa che a chi vuole disertare il capitalismo del controllo.
- Frammentazione del movimento: Mentre PauseAI coordina proteste globali, la galassia italiana è frammentata tra collettivi, centri sociali, piccole case editrici, riviste indipendenti, singoli pensatori, spesso emarginati e fuori dalle luci della ribalta conformistica predominante.
Eppure, questa tradizione tutta italiana ha anticipato di decenni temi che solo ora emergono nel dibattito pubblico. Ippolita scriveva di capitalismo della sorveglianza già nel 2007, anni prima di Shoshana Zuboff. Bifo analizzava il lavoro cognitivo e la precarizzazione dell'attenzione nei primi anni 2000, molto prima che diventassero temi mainstream.
La domanda è: può questa critica radicale contaminare e radicalizzare i movimenti anti-IA più visibili? O rimarrà una tradizione parallela, intellettualmente ricca ma politicamente marginale?
Renato Curcio e la "società artificiale": totalitarismo tecnologico embedded
Se c'è una figura che incarna la radicalità della critica italiana all'IA, dal mio modesto punto di vista, quella è Renato Curcio. Ex fondatore delle Brigate Rosse, socioanalista e fondatore della cooperativa editoriale Sensibili alle Foglie, Curcio ha dedicato gli ultimi dieci anni a una tetralogia sistematica sul capitalismo digitale: "L'impero virtuale" (2015), "L'egemonia digitale" (2016), "La società artificiale" (2017), "L'algoritmo sovrano" (2018), fino al recente "Capitalismo cibernetico" (2020) e "Sovraimplicazioni" (2025).
La tesi centrale di Curcio è che siamo di fronte a un nuovo totalitarismo tecnologico che, a differenza di quelli ideologici del Novecento, invade e colonizza il luogo più sacro e fondamentale della libertà. Non si tratta di migliorare o regolare l'IA: si tratta di riconoscere che essa è parte integrante di quella che chiama la "società embedded". Una società in cui i dispositivi digitali sono incorporati (embedded) nel tessuto stesso della vita sociale, rendendo impossibile distinguere tra volontà individuale e comando algoritmico.
"Gli esseri umani manipolati della società digitale sono in un rapporto di solitaria connessione ultra-personalizzata con remote intelligenze artificiali calibrate su ciascuno di essi", scrive Curcio in "Sovraimplicazioni". "I singoli user non hanno alcuna relazione reciproca: il loro intrattenimento e la loro lavorazione avviene su base individuale, personale, atomizzata".
Curcio identifica il transumanesimo come il movimento culturale che sostiene ideologicamente questa mutazione. Il transumanesimo afferma che la connessione crescente tra esseri umani e intelligenze artificiali è non solo inevitabile ma positiva. Per Curcio non è altro che una espressione dell'ideologia della servitù volontaria: "Più ci connetteremo più avremo vantaggi", promettono. In realtà, "stiamo già utilizzando sistemi di intelligenza artificiale che sono in mano ad aziende private" e che presto saranno "implementati sott[o la pelle]" (un riferimento ai chip sottocutanei già in sperimentazione in varie parti del mondo).
L'analisi di Curcio non si ferma ai dispositivi di consumo. Nei suoi ultimi lavori documenta l'uso militare dell'IA: il sistema israeliano Lavender per selezionare bersagli a Gaza, Palantir per deportare migranti negli USA. "L'intelligenza artificiale serve principalmente per offrire servizi quali trovare un'informazione sui motori di ricerca? No. Quello è solo il mantello mitico che la riveste". La vera funzione è "il controllo sociale, la sorveglianza diffusa, il comando furtivo".
In "Capitalismo cibernetico", Curcio descrive il passaggio da un potere disciplinare (che normalizza attraverso istituzioni: scuola, caserma, fabbrica) a un potere cibernetico che opera attraverso "sovraimplicazioni" – ingiunzioni continue, personalizzate, algoritmiche che catturano desiderio e attenzione senza bisogno di istituzioni visibili.
La proposta politica di Curcio è radicale: "Occorre riportare la barra della nostra vita sociale anzitutto sui legami, sulle comunità istituenti e sulle relazioni faccia-a-faccia. La critica va portata direttamente alla radice del modo di produzione capitalistico". Non serve, o non basta fare lobby parlamentare, elaborare regolamentazioni etica, ma è necessario provare a ricostruire forme di vita sottratte al dispositivo cibernetico. "Sapremo scegliere o ci accontenteremo di essere scelti?", si chiede Curcio provocatoriamente.
Carlo Formenti: capitalismo digitale e "felici e sfruttati"
Carlo Formenti, giornalista, ricercatore e militante della sinistra radicale, rappresenta l'ala marxista più ortodossa della critica al digitale. Il suo "Felici e sfruttati. Capitalismo digitale ed eclissi del lavoro" (2011) ha anticipato di oltre un decennio i temi oggi dominanti.
La tesi di Formenti è brutalmente semplice: "Internet non ha ammorbidito il capitalismo; ne ha al contrario esaltato la capacità di cavalcare l'innovazione per sfruttare la creatività e il lavoro umani". Contro i guru della sharing economy e dell'open source, Formenti dimostra che il capitalismo digitale è il più vorace e monopolistico della storia.
"Molti guru giurano che il capitalismo sta per lasciare il campo a un nuovo modo di produrre", scrive Formenti. "Ma se osserviamo la realtà vediamo un altro panorama: crollo dei redditi, concentrazioni monopolistiche, inasprimento delle leggi sulla proprietà intellettuale, balcanizzazione del Web ridotto a un arcipelago di riserve di caccia aziendali".
Per Formenti, l'intelligenza artificiale generativa è l'ultima incarnazione di questa dinamica. A differenza delle precedenti rivoluzioni tecnologiche che automatizzavano il lavoro manuale, l'IA attacca direttamente il lavoro cognitivo qualificato. "L'IA generativa pesca in mezzo, va a tagliare i lavori immateriali, cognitari che hanno un discreto livello di specializzazione e questa cosa non ha precedenti nella storia", osserva in un recente intervento.
Con il "capitalismo delle piattaforme", ciò che negli anni '90 era lavoro creativo viene ora "messo a valore senza passare da un'organizzazione lavorativa: l'organizzazione del lavoro è stata sostituita dall'organizzazione delle piattaforme". Il risultato? "Una generazione di lavoratori della conoscenza flessibili, disciplinati e convinti di vivere nel migliore dei mondi possibili. Felici e sfruttati".
Formenti critica duramente anche la sinistra progressista che ha abbracciato acriticamente le "utopie letali" del digitale, l'idea che Internet porti automaticamente più democrazia, più condivisione, più orizzontalità. Nel suo "Utopie letali. Capitalismo senza democrazia" (2013), denuncia una sinistra "movimentista" che ha "abbandonato la via dell'antagonismo di classe" per inseguire "improbabili mutazioni della psicologia individuale, lunghe marce dei diritti, terze vie oltre il pubblico e il privato".
Nei suoi scritti più recenti, Formenti identifica il transumanesimo e la singolarità (il momento in cui l'IA supererà l'intelligenza umana) come ideologie neoreazionarie che mirano al "superamento della politica con un capitalismo puro" che si espanda "indefinitamente attraverso l'esplorazione e lo sfruttamento intensivi del cyberspazio".
Giorgio De Michelis: la "terza rivoluzione antropologica" e l'IA governabile
Giorgio De Michelis, studioso e progettista di sistemi digitali, già professore ordinario di interaction design all'Università di Milano-Bicocca, rappresenta una posizione diversa ma complementare nella galassia critica italiana.
Nel suo recente "Intelligenza artificiale e lavoro, una rivoluzione governabile" (2024, con Federico Butera), De Michelis riprende il filosofo Michel Serres per affermare che la digitalizzazione rappresenta la "terza rivoluzione antropologica" dopo la scrittura e la stampa, una trasformazione che cambia radicalmente "la nostra percezione dello spazio, del tempo e della conoscenza".
A differenza di Curcio e Formenti, De Michelis non parte da una critica del capitalismo ma da un'analisi fenomenologica del lavoro. L'effetto dell'IA è "una sorta di progressivo svuotamento delle attività dell'uomo sia di natura ripetitiva che basate su contenuti cognitivi medio-alti", con prestazioni lavorative che diventano "sempre più residue e prive di contenuto".
De Michelis identifica quattro dimensioni critiche del cambiamento nel senso del lavoro: spazio-temporale, economica, contenuto del lavoro, capacità necessarie. La più radicale è la prima: la separazione tayloriana e fordista tra tempo/luogo di lavoro e tempo/luogo di è crollata con la pandemia e il lavoro da remoto. "Questo binomio tempo di vita/tempo di lavoro" sta scomparendo, con conseguenze esistenziali profonde.
Contrariamente ai pessimisti radicali, De Michelis crede che questa rivoluzione sia governabile. Ma non attraverso la regolamentazione dall'alto: attraverso "cantieri partecipati nelle singole imprese e Pubbliche Amministrazioni" e "politiche pubbliche centrate sul lavoro". L'idea è di progettare insieme organizzazione, lavoro e tecnologia, distinguendo tra IA buona (che potenzia il lavoro umano) e IA cattiva (che lo sostituisce e degrada).
"L'intelligenza artificiale potrà produrre una sinfonia ma mai la Nona, potrà dipingere ma mai Guernica", scrive De Michelis. "Non potrà replicare creatività, contesti e genialità". Ma questo richiede scelte deliberate: "progettare organizzazioni capaci di accogliere e sviluppare la professionalizzazione di tutti", "potenziare le competenze a tutti i livelli", "progettare nuovi lavori".
De Michelis parla dell'IA come soggetto attivo che partecipa alle conversazioni umane – non uno strumento neutrale ma un attore con cui dobbiamo imparare a cooperare. La sua visione è di "una società dove la conoscenza sia patrimonio di tutti", possibile "solo in contesti democratici, dove fin dalla scuola sia seminata la cultura dell'innovazione e della sostenibilità".
Sebbene meno radicale di Curcio o Formenti, De Michelis condivide con loro il rifiuto del determinismo tecnologico: l'IA non è un destino inevitabile ma un campo di battaglia politico. La differenza sta nella strategia: non diserzione o rivoluzione, ma riappropriazione democratica della progettazione tecnologica.
La galassia minore
Accanto a queste figure maggiori, esiste una galassia di autori, collettivi e riviste che alimentano la critica radicale all'IA in Italia.
ArcipelagoMilano, spazio sociale e culturale milanese, ha pubblicato documenti programmatici che sintetizzano la critica radicale: "L'intelligenza artificiale non esiste separata dal mondo, bensì dipende interamente da un insieme molto ampio di strutture politiche e sociali. Non c'è nessuna intelligenza artificiale senza Big Tech". Il loro approccio riprende Kate Crawford ("Né intelligenti, né artificiali"): l'IA come "strumento al servizio del potere economico: per i profitti prodotti, i dispositivi di sorveglianza sui lavoratori, la finanziarizzazione; e politico: per sorvegliare il dissenso, reprimere, chiudere le frontiere, fare la guerra".
La rivista Sinistra in Rete pubblica regolarmente interventi di Curcio, Formenti e altri che contestualizzano l'IA dentro la lotta di classe contemporanea. Contropiano e Il Manifesto ospitano dibattiti sul "proletariato digitale" e sulla necessità di aggiornare le categorie marxiste.
La casa editrice DeriveApprodi ha pubblicato traduzioni italiane di classici della critica tech come Evgeny Morozov ("Silicon Valley: i signori del silicio") e Paul Mason ("PostCapitalismo"), creando ponti tra la tradizione italiana e quella internazionale.
I centri sociali – dal Vittoria a Milano alla Torchiera alla XM24 di Bologna, ospitano presentazioni, dibattiti, seminari su questi temi, creando spazi fisici dove la critica teorica incontra la militanza.
Ciò che accomuna questa galassia è il rifiuto di separare la questione tecnologica dalla questione sociale. L'IA non è un "problema etico" da risolvere con codici di condotta, ma un dispositivo di potere da smantellare attraverso pratiche di conflitto e sottrazione.
Perché l'Italia è diversa? Genealogia di una tradizione critica
Perché proprio in Italia questa tradizione di pensiero critico sul digitale e sull'IA è così radicata e sofisticata?
Le ragioni affondano nella storia politica e intellettuale del paese:
- L'operaismo degli anni '60-'70: Pensatori come Mario Tronti, Antonio Negri, Romano Alquati avevano già teorizzato il "capitalismo cognitivo" e l'"intelletto generale" decenni prima dell'avvento di Internet. Curcio, Formenti, Bifo vengono tutti da questa tradizione.
- L'autonomia: Il movimento del '77 italiano aveva posto al centro la critica del lavoro, il rifiuto della fabbrica, l'autovalorizzazione. Temi che risuonano potentemente nell'era delle piattaforme e del lavoro gratuito online.
- La critica dei media radicali: Da Radio Alice a Indymedia, l'Italia ha una lunga tradizione di media alternativi e di critica della comunicazione di massa. Ippolita viene direttamente da questa genealogia.
- Il femminismo della differenza: Autrici come Carla Lonzi, il collettivo Rivolta Femminile, le teoriche del lavoro di cura hanno anticipato temi che oggi emergono nella critica del lavoro digitale invisibile.
- La centralità del conflitto: Mentre nel mondo anglosassone dominano approcci liberali basati su diritti individuali e regolamentazione, in Italia persiste una tradizione che vede il conflitto sociale come motore del cambiamento.
Questa eredità rende la critica italiana all'IA strutturalmente diversa da quella anglosassone: non si tratta di rendere l'IA più sicura ma di riconoscere che l'IA è uno strumento di classe, e come tale va analizzato criticamente per contratarne e combatterne le narrazioni maistream oggi predominanti che non lasciano spazio, o limitano, ogni espressione critica fuori dal coro.
Alcune considerazioni finali: oltre la tecnologia, una battaglia per il futuro
La resistenza all’IA, nella forma in cui viene sviluppata, modellata, raccontata e proposta oggi, che è nata in questi anni non riguarda mai solo algoritmi e data center. Impone riflessioni critiche e domande più profonde su che tipo di futuro vogliamo costruire e su quale potere o chi abbia (si sta arrogando) il diritto di decidere.
Troppo facile liquidare questi movimenti come neoluddisti, come resistenza irrazionale al progresso. In queste forme di resistenza ci sono certamente echi del movimento luddista della rivoluzione industriale e dei lavoratori tessili che spezzavano i telai meccanici nel 1811. Ma ci sono differenze cruciali. I luddisti si opponevano a macchine che facevano cose specifiche come essere più veloci nella produzione e rendere il processo produttivo più automatizzato e economico. Gli attivisti anti-IA si oppongono a qualcosa di potenzialmente molto più fondamentale. Si resiste a sistemi che potrebbero eguagliare o superare l'intelligenza umana in domini generali, non solo in compiti specifici.
Mentre i luddisti erano lavoratori che proteggevano i loro mezzi di sussistenza, il movimento contemporaneo include molti insider dell'industria tecnologica, persone che hanno contribuito a creare questi sistemi e ora suonano l'allarme proprio perché sanno cosa potrebbero accadere se qualcosa dovesse andare storto o se qualcuno piegasse le nuove tecnologie a logiche di puro potere, che non potrebbe essere democratico ma autoritario.
"Non siamo contro la tecnologia. Siamo contro la tecnologia senza democrazia. Contro l'innovazione senza responsabilità. Contro il progresso che non si ferma a chiedersi: progresso verso cosa? E per chi?" (Meindertsma)
La domanda che questi movimenti pongono è scomoda ma necessaria. Pone una domanda chiave: chi ha dato a Sam Altman, Demis Hassabis, Mark Zuckerberg il diritto di decidere come sarà il futuro dell'umanità? Saranno pure visionari brillanti, certamente, ma la brillantezza tecnica non conferisce autorità morale o politica.
Negli anni '40, dopo Hiroshima, molti scienziati che avevano lavorato al Progetto Manhattan furono tormentati dal rimorso. La comunità scientifica sviluppò una consapevolezza nuova sulla responsabilità etica della scienza. I movimenti anti-IA chiedono che questa consapevolezza arrivi prima, non dopo una catastrofe. Chiedono che la società nel suo insieme abbia voce in capitolo su tecnologie che potrebbero ridefinire cosa significa essere umani.
Riusciranno a fermare o rallentare lo sviluppo dell'IA? Probabilmente no, almeno non completamente. Le forze economiche, geopolitiche e tecnologiche che spingono verso una accelerazione sono troppo potenti. La competizione tra Stati Uniti e Cina rende quasi impossibile una pausa coordinata. Ma forse l’impegno a cercare di rallentare o fermare l’evoluzion (involuzione?) in corso non è l'unico metro di misura dell’eventuale e improbabile successo. Forse il contributo più importante è stato rendere impossibile ignorare le domande difficili. Il merito di questi modvimnti di resistenza hanno strappato il futuro dalle mani di pochi visionari tecnocratici e lo hanno riportato nell'arena del dibattito democratico.
In un'epoca in cui la tecnologia viene spesso presentata come destino inevitabile (vedi i libri di Kevin Kelly e non solo) questi movimenti ricordano una verità semplice ma sovversiva: il futuro non è scritto. È una scelta. E abbiamo ancora il diritto di scegliere.
La domanda è se avremo anche il coraggio di fare una scelta, di resistenza.
Bibliografia essenziale
Libri
- Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014. Il testo fondamentale sui rischi esistenziali dell'intelligenza artificiale. Bostrom analizza scenari di come una superintelligenza potrebbe emergere e sfuggire al controllo umano.
- Russell, Stuart. Human Compatible: Artificial Intelligence and the Problem of Control. Viking, 2019. Uno dei massimi esperti di IA argomenta che il problema fondamentale è come costruire sistemi i cui obiettivi siano allineati con i valori umani.
- Crawford, Kate. Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press, 2021. Un'analisi critica dell'impatto materiale dell'IA: estrazione mineraria, sfruttamento del lavoro, consumo energetico. Smonta il mito dell'IA come tecnologia "immateriale".
- O'Neil, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown, 2016. Spiega come gli algoritmi possano amplificare discriminazioni e ingiustizie esistenti, con esempi concreti da educazione, giustizia penale, finanza.
- Zuboff, Shoshana. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs, 2019. Analizza come l'IA e il machine learning siano al centro di un nuovo modello economico basato sulla predizione e manipolazione del comportamento umano.
- Noble, Safiya Umoja. Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press, 2018. Documenta come i sistemi algoritmici riproducano e amplifichino bias razziali e di genere.
- Eubanks, Virginia. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin's Press, 2018. Mostra come l'automazione algoritmica colpisca in modo sproporzionato le persone più vulnerabili.
Articoli accademici e report chiave
- Hendrycks, Dan, et al. "An Overview of Catastrophic AI Risks." arXiv preprint arXiv:2306.12001 (2023). Una rassegna sistematica dei principali scenari di rischio catastrofico associati all'IA avanzata.
- Bengio, Yoshua, et al. "Managing extreme AI risks amid rapid progress." Science 384.6698 (2024): 842-845. Articolo firmato da diversi premi Turing che argomenta per una governance internazionale dell'IA.
- Future of Life Institute. "Pause Giant AI Experiments: An Open Letter." Marzo 2023. La lettera aperta che ha catalizzato il dibattito pubblico, firmata da migliaia di esperti e personalità.
- AI Now Institute. "2023 Landscape: Confronting Tech Power." Aprile 2023. Report annuale che analizza la concentrazione di potere nell'industria dell'IA e propone policy alternative.
- Gray, Mary L., and Siddharth Suri. Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass. Houghton Mifflin Harcourt, 2019. Ricerca etnografica sui lavoratori invisibili che rendono possibile l'IA.
Rapporti governativi e internazionali
- UK Department for Science, Innovation and Technology. "International Scientific Report on the Safety of Advanced AI." 2024. Primo rapporto scientifico internazionale coordinato sui rischi dell'IA avanzata.
- US Department of Homeland Security. "Artificial Intelligence: Risks and Opportunities." 2024. Analisi governativa che paragona lo sviluppo dell'IA alla corsa agli armamenti nucleari.
- United Nations. "Governing AI for Humanity: Final Report." Settembre 2024. Raccomandazioni del panel consultivo dell'ONU su governance globale dell'IA.
- European Parliament. "Artificial Intelligence Act." Approvato nel 2024. Il testo della prima regolamentazione completa dell'IA, con particolare attenzione ai sistemi ad alto rischio.
Saggi e interventi
- Hinton, Geoffrey. Intervista al New York Times. "The Godfather of A.I. Leaves Google and Warns of Danger Ahead." Maggio 2023. L'intervista in cui uno dei pionieri del deep learning esprime pubblicamente le sue preoccupazioni.
- LeCun, Yann. "A Path Towards Autonomous Machine Intelligence." OpenReview, giugno 2022. La visione alternativa di un altro "padrino" dell'IA, più ottimista sui rischi.
- Tegmark, Max. Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf, 2017. Esplora diversi scenari futuri in cui l'IA potrebbe evolvere, dal più utopico al più distopico.
Webgrafia
Siti dei movimenti
- PauseAI Sito ufficiale del movimento, con risorse educative, calendario proteste, documenti programmatici.
- Stop AI Piattaforma del movimento più radicale, include manifesto, tattiche di azione diretta.
- ControlAI Materiali di lobby, position paper, campagne mediatiche.
Organizzazioni di ricerca e advocacy
- AI Now Institute Istituto di ricerca interdisciplinare su implicazioni sociali dell'IA, con particolare focus su giustizia e accountability.
- Future of Life Institute Organizzazione non profit dedicata ai rischi esistenziali dell'IA, autori della lettera aperta del 2023.
- Algorithmic Justice League Fondata da Joy Buolamwini, combatte i bias algoritmici e promuove equità nei sistemi di IA.
- Center for AI Safety Organizzazione di ricerca dedicata alla riduzione dei rischi catastrofici dell'IA.
- Partnership on AI Consorzio multi-stakeholder che include aziende tech, società civile e ricercatori.
Campagne specifiche
- Stop Killer Robots Campagna globale contro i sistemi d'arma autonomi letali.
- Artists Against AI Strumenti per artisti per proteggere le loro opere dall'uso non autorizzato nell'addestramento dell'IA.
- Time for a Pause Petizione e risorse per supportare una moratoria sullo sviluppo dell'IA.
Risorse tecniche e documentazione
- Anthropic - Claude Documentation Documentazione tecnica e linee guida etiche di uno dei principali laboratori di IA.
- OpenAI - Safety & Alignment Ricerche pubblicate da OpenAI su sicurezza e allineamento dell'IA.
- DeepMind - Responsible AI Approccio di Google DeepMind alla sicurezza dell'IA.
Media e giornalismo investigativo
- AI Snake Oil (Blog) Blog critico di Arvind Narayanan e Sayash Kapoor che smonta hype e affermazioni infondate sull'IA.
- Import AI (Newsletter) Newsletter settimanale di Jack Clark (Anthropic) su sviluppi nell'IA con prospettiva critica.
- The Gradient Rivista online gestita da studenti e ricercatori, focus su implicazioni sociali dell'IA.
Documentari e video
- "Coded Bias" (2020) Documentario su Joy Buolamwini e la lotta contro i bias nel riconoscimento facciale. Disponibile su Netflix e altre piattaforme.
- "The Social Dilemma" (2020) Anche se non specificamente sull'IA, documenta i rischi degli algoritmi di social media. Netflix.
Database e archivi
- AI Incident Database Database collaborativo che documenta incidenti e danni causati da sistemi di IA.
- Papers with Code - AI Safety Repository di ricerche accademiche su sicurezza dell'IA con codice associato.
Forum e comunità
- LessWrong - AI Alignment Forum Community online dedicata a razionalità e rischi esistenziali dell'IA.
- Effective Altruism Forum - AI Safety Discussioni su come ridurre i rischi dell'IA da prospettiva di altruismo efficace.
- r/ControlProblem (Reddit) Subreddit dedicato al problema del controllo dell'IA.
Podcast rilevanti
- "The 80,000 Hours Podcast" Episodi su AI safety e rischi esistenziali.
- "AI Alignment Podcast" Interviste con ricercatori su allineamento e sicurezza dell'IA.
Think tank e policy
- Center for Security and Emerging Technology (CSET) Ricerca su implicazioni di sicurezza nazionale delle tecnologie emergenti inclusa l'IA.
- Ada Lovelace Institute Think tank britannico su etica e governance dell'IA e dei dati.
- AI Policy Exchange Piattaforma per condivisione di policy e best practice sull'IA tra governi.
Organizzazioni sindacali
- AFL-CIO Technology Institute Risorse sindacali su impatto dell'IA sul lavoro.
- UNI Global Union - Breaking the Algorithm Campagna sindacale internazionale per diritti dei lavoratori nell'era algoritmica.