Il volume si inserisce in un filone critico che negli ultimi anni ha prodotto contributi fondamentali al dibattito pubblico e scientifico sull'intelligenza artificiale, da Kate Crawford a Meredith Broussard, da Timnit Gebru, cofondatrice del DAIR Institute, di cui Hanna è oggi direttrice della ricerca, alle stesse autrici, che nel 2021 avevano già firmato il seminale articolo On the Dangers of Stochastic Parrots. Emily M. Bender, linguista computazionale all'Università di Washington e tra le cento persone più influenti nel campo dell'IA secondo Time nel 2023, porta al testo una competenza tecnica rigorosa sul funzionamento dei modelli linguistici di grandi dimensioni (LLM). Alex Hanna, sociologa con un percorso che include anni di ricerca in Google, contribuisce una prospettiva critica sulle strutture di potere e sulle condizioni di lavoro che rendono possibile l'industria dell'IA.
L'argomento portante del libro è formulato con precisione fin dalle prime pagine: i sistemi di IA generativa non sono intelligenti nel senso proprio del termine. Sono macchine statistiche di grandissima scala che producono output linguisticamente plausibili senza alcun processo di comprensione, ragionamento o intenzionalità. La metafora del pappagallo stocastico, già introdotta nell'articolo del 2021, viene qui sviluppata e approfondita: un sistema che, addestrato su miliardi di parole, è in grado di generare sequenze di testo coerenti con le distribuzioni statistiche del corpus di addestramento, ma che non sa nulla di ciò che dice.
Questa distinzione, tra simulazione del linguaggio e comprensione del linguaggio, non è solo tecnica. È la premessa analitica da cui derivano tutte le critiche successive al modo in cui l'industria tecnologica presenta, vende e impone i propri prodotti.
Una parte sostanziale del volume è dedicata all'analisi del discorso pubblico sull'IA: comunicati stampa, interviste, annunci di prodotto, dichiarazioni di CEO. Le autrici mostrano come questo discorso sia strutturalmente ingannevole, non necessariamente in malafede, ma sistematicamente orientato a produrre un effetto di inevitabilità e onnipotenza. Termini come intelligenza, comprensione, creatività, apprendimento vengono applicati a sistemi algoritmici trasferendo loro connotazioni cognitive e quasi-soggettive del tutto improprie.
Questo processo di antropomorfizzazione non è neutro: serve a giustificare investimenti colossali, a scoraggiare la regolamentazione, a costruire dipendenza. Bender e Hanna lo analizzano come una forma di marketing epistemico, la manipolazione non dei desideri del consumatore, ma della sua capacità di capire cosa sta usando.
Uno dei contributi più originali del libro è la sistematizzazione di ciò che l'industria dell'IA tende a rendere invisibile. Su tre fronti in particolare:
Il lavoro nascosto. I modelli generativi richiedono enormi quantità di lavoro umano di annotazione, classificazione e filtraggio dei dati, lavoro spesso esternalizzato in paesi a basso reddito, pagato pochi centesimi a task, svolto in condizioni di esposizione a contenuti traumatici senza adeguato supporto psicologico. L'immagine di un'IA che "impara da sola" occulta questa catena di sfruttamento.
I dati senza consenso. I corpus su cui vengono addestrati i grandi modelli linguistici sono stati costruiti attraverso la raccolta massiva di testo dal web, senza il consenso degli autori, in violazione di diritti d'autore ancora oggetto di contenzioso legale in numerose giurisdizioni.
Il costo ambientale. L'addestramento e l'inferenza di modelli di grandi dimensioni richiedono un consumo energetico e idrico che le aziende tendono a minimizzare o a non comunicare. In un contesto di crisi climatica, questa opacità non è trascurabile.
Il titolo completo del volume, Come resistere a Big Tech e costruire il futuro che vogliamo, segnala che le autrici non si fermano alla critica. L'ultima parte del libro è dedicata a una prospettiva propositiva: quali forme di regolamentazione sono necessarie, quali alternative tecnologiche e organizzative esistono, come i lavoratori del settore, i ricercatori e i cittadini possono esercitare pressione. Il tono diventa qui più militante, e la prospettiva esplicitamente politica, il che costituisce al tempo stesso la forza e il limite di questa sezione, che alcuni lettori accademici potrebbero trovare meno rigorosa rispetto all'impianto analitico delle parti precedenti.
Il libro ha il merito raro di coniugare competenza tecnica e consapevolezza sociale in un testo accessibile anche al lettore non specialista. Tuttavia, alcune scelte espositivo-argomentative meritano una riflessione critica.
In primo luogo, la metafora del pappagallo stocastico, per quanto efficace retoricamente, rischia di chiudere prematuramente un dibattito ancora aperto nella linguistica cognitiva e nella filosofia della mente: cosa significhi esattamente comprendere il linguaggio è una questione tutt'altro che risolta, e ridurre i LLM a puri automi statistici potrebbe essere, a sua volta, una semplificazione.
In secondo luogo, la critica alle Big Tech, pur fondata e documentata, tende talvolta a trattare l'industria tecnologica come un agente monolitico e intenzionalmente malevolo, laddove la realtà è più frammentata e contraddittoria.
Questi limiti non inficiano il valore complessivo del volume, che rimane uno dei contributi critici più utili e meglio argomentati disponibili oggi sul tema.
L'inganno dell'intelligenza artificiale è un libro che andrebbe letto — e discusso — nelle facoltà di informatica, di linguistica, di sociologia e di filosofia. Non perché offra risposte definitive, ma perché pone le domande giuste nel momento in cui porle è ancora possibile fare la differenza.