Nel dibattito contemporaneo sull’intelligenza artificiale convivono due modi radicalmente diversi di interpretare ciò che sta accadendo.
Da una parte, l’AI viene spesso raccontata come l’anticamera di una nuova forma di intelligenza, sistemi sempre più potenti che potrebbero, prima o poi, superare le capacità cognitive umane e ridefinire il destino della civiltà. In questa prospettiva, l’intelligenza artificiale appare come una traiettoria evolutiva della mente, una tecnologia destinata a produrre entità cognitive autonome, potenzialmente superiori a noi per velocità, capacità di calcolo e di decisione.
Dall’altra parte emerge una lettura molto più critica e storicamente radicata. Secondo questa prospettiva, ciò che chiamiamo “intelligenza artificiale” non è una nuova forma di mente, ma un’infrastruttura costruita sull’accumulazione e sull’estrazione di conoscenza prodotta dagli esseri umani: dati, immagini, linguaggi, comportamenti. Più che generare intelligenza, questi sistemi riorganizzano e sfruttano enormi archivi di sapere collettivo trasformandoli in valore economico e potere tecnologico.
Stiamo davvero assistendo alla nascita di nuove forme di intelligenza? Oppure stiamo osservando l’espansione di un sistema capitalistico che automatizza l’estrazione e la formalizzazione del sapere umano?
Il confronto tra Nick Bostrom e Matteo Pasquinelli rende visibile questa divergenza. Bostrom, teorico della superintelligenza, guarda all’AI come a una possibile evoluzione dell’intelligenza stessa, capace di produrre sistemi cognitivi più potenti di quelli umani. Pasquinelli, filosofo e teorico dei media, propone invece una genealogia storica dell’AI che ne mostra le radici nei processi di organizzazione del lavoro, della conoscenza e dell’automazione.
Il loro confronto riguarda il modo in cui immaginiamo il futuro e, soprattutto, il modo in cui comprendiamo il potere che le infrastrutture digitali esercitano già oggi nel lavoro, nell’economia della conoscenza e nella produzione di decisioni che influenzano la vita collettiva.
1. Che cos’è davvero l’intelligenza artificiale?
Nel suo libro più influente, Superintelligence: Paths, Dangers, Strategies (2014), Nick Bostrom pone una domanda che ha segnato il dibattito sull’intelligenza artificiale: che cosa accadrà quando le macchine diventeranno più intelligenti degli esseri umani?
Secondo Bostrom, l’AI potrebbe raggiungere un livello tale da migliorarsi autonomamente. Se un sistema artificiale arrivasse a possedere capacità cognitive paragonabili a quelle umane, potrebbe iniziare a progettare versioni sempre più avanzate di sé stesso, dando origine a una crescita rapidissima delle sue capacità. Questo processo, definito intelligence explosion, potrebbe condurre alla nascita di una superintelligenza, capace di superare l’essere umano praticamente in ogni dominio cognitivo.
Ma come assicurarsi che un sistema più intelligente di noi agisca in modo compatibile con i valori umani? Bostrom concentra la sua analisi su alcuni temi: l’allineamento dell’AI ai valori umani, la governance globale delle tecnologie avanzate, la prevenzione di possibili rischi esistenziali. In questa prospettiva, l’intelligenza artificiale appare come una possibile forma di intelligenza non biologica, destinata a trasformare in modo radicale il futuro della civiltà.
Matteo Pasquinelli affronta l’AI da una prospettiva quasi opposta. Nel libro The Eye of the Master: A Social History of Artificial Intelligence (2023), Pasquinelli sostiene che l’intelligenza artificiale non può essere compresa solo come una tecnologia emergente o come una futura mente artificiale. Per capirla davvero occorre analizzarne le radici storiche, economiche e sociali.
Secondo Pasquinelli, ciò che oggi chiamiamo AI deriva da una lunga tradizione di tecniche di calcolo sviluppate per estrarre conoscenza dal lavoro umano, dalle statistiche usate per organizzare il lavoro industriale fino agli algoritmi che apprendono dai dati prodotti da milioni di persone.
In questa prospettiva, l’intelligenza artificiale non è una mente autonoma che si avvicina alla coscienza umana, ma piuttosto una macchina di estrazione cognitiva, un sistema di modelli matematici che apprendono dai dati generati da società, cultura e lavoro.
Il confronto tra queste due visioni rivela una divergenza sostanziale nel dibattito sull’AI. Per Bostrom la questione riguarda il futuro dell’intelligenza e il rischio che una mente artificiale superi l’essere umano. Per Pasquinelli riguarda invece il presente delle infrastrutture cognitive, cioè il modo in cui gli algoritmi riorganizzano conoscenza, lavoro e potere.
2. Il mito del cervello artificiale
Nel libro The Eye of the Master (2023), Pasquinelli propone una critica dell’immaginario che accompagna l’intelligenza artificiale. Al centro della sua analisi c’è una metafora che ha segnato per decenni il discorso pubblico sull’AI, quella del cervello artificiale.
Secondo Pasquinelli, l’idea che le reti neurali simulino il funzionamento della mente umana ha contribuito a costruire un’immagine delle macchine come entità cognitive autonome. Ma questa rappresentazione rischia di essere fuorviante. I sistemi di machine learning non comprendono il mondo come farebbe una mente, operano piuttosto come macchine statistiche che analizzano enormi quantità di dati alla ricerca di regolarità e correlazioni. La loro “intelligenza” non nasce da una forma di coscienza artificiale, ma dall’elaborazione di archivi costruiti dagli esseri umani. In questo senso, l’AI appare meno come un nuovo soggetto cognitivo e più come un dispositivo che estrae valore dall’intelligenza collettiva sedimentata nei dati.
Bostrom affronta la questione da una prospettiva diversa. Nel libro Superintelligence (2014) si concentra meno sul funzionamento attuale dei sistemi di AI e più sulle loro possibili evoluzioni. La sua tesi di fondo è che l’intelligenza non dipende necessariamente dal cervello biologico, in linea di principio potrebbe emergere anche in altri supporti materiali, inclusi i sistemi digitali.
Da questa premessa deriva l’ipotesi della superintelligenza, cioè di un’intelligenza artificiale capace di superare le prestazioni cognitive umane nella maggior parte dei domini. Se sistemi di questo tipo fossero in grado di migliorare autonomamente le proprie capacità, potrebbero trasformare radicalmente l’equilibrio tra umani e macchine. Per Bostrom, la questione decisiva diventa quindi come garantire che questi sistemi restino allineati ai valori umani.
Il contrasto tra Pasquinelli e Bostrom non riguarda soltanto il futuro dell’AI, ma il modo stesso di interpretarla. Il primo invita a leggere l’intelligenza artificiale come una tecnologia radicata nella storia sociale dei dati e del lavoro umano, il secondo la considera una possibile nuova forma di intelligenza, capace di ridefinire il futuro della civiltà.
3. Dove nasce l’intelligenza delle macchine?
Per Bostrom, il punto decisivo non è tanto il modo in cui i sistemi vengono addestrati oggi, quanto la possibilità che, oltre una certa soglia di complessità, possano sviluppare capacità cognitive sempre più autonome. Nel suo modello teorico, un sistema sufficientemente avanzato potrebbe migliorare le proprie prestazioni, progettare versioni più efficienti di sé stesso e avviare un ciclo di auto-miglioramento sempre più rapido. È ciò che Bostrom descrive come “esplosione di intelligenza”, una dinamica in cui la crescita delle capacità cognitive delle macchine sfugge progressivamente al controllo umano.
Da questa prospettiva, la questione centrale riguarda il futuro. Se una superintelligenza diventasse possibile, il problema politico e filosofico sarebbe come governarla, quali obiettivi assegnarle, come evitare che persegua fini incompatibili con quelli umani, come impedire che la ricerca tecnologica diventi una corsa incontrollata. In altre parole, per Bostrom la questione è come prepararsi a una forma di intelligenza che potrebbe superare quella umana.
Pasquinelli, invece, prima di interrogarsi sul futuro dell’intelligenza artificiale, invita a guardare alla sua genealogia. Nel suo lavoro storico e teorico, sostiene che l’intelligenza delle macchine nasce da un lungo processo di accumulazione di conoscenza sociale. I sistemi di machine learning funzionano perché vengono addestrati su quantità immense di dati: testi, immagini, archivi digitali, codice, comportamenti online. Tutto questo materiale non è prodotto dalle macchine, ma dal lavoro umano sedimentato nel tempo.
In questa prospettiva, l’intelligenza artificiale non è un soggetto emergente, ma una tecnologia estrattiva della conoscenza. I modelli statistici imparano a riconoscere schemi proprio perché analizzano e comprimono tracce di attività umane. L’apparente autonomia dei sistemi è quindi il risultato di un’infrastruttura sociale invisibile fatta di produzione culturale, lavoro cognitivo e piattaforme digitali che raccolgono e organizzano dati su scala planetaria.
Se per Bostrom il nodo è ciò che l’intelligenza artificiale potrebbe diventare, per Pasquinelli la questione decisiva è capire da dove proviene. Nel primo caso l’attenzione si concentra sul rischio di una mente artificiale futura capace di superare l’essere umano, nel secondo sul presente, sulle condizioni materiali che rendono possibile ciò che chiamiamo “intelligenza” delle macchine.
4. L’economia dell’estrazione
Per Pasquinelli, dietro all’intelligenza artificiale c’è un processo economico e sociale preciso, per questo parla di “intelligenza estrattiva”. Le grandi piattaforme digitali - dai motori di ricerca ai social network - raccolgono dati su scala globale trasformando attività quotidiane come scrivere un messaggio, condividere una fotografia o navigare in rete in materia prima computazionale. Ogni gesto digitale diventa un frammento di informazione che alimenta l’addestramento dei modelli statistici.
In questa prospettiva, l’AI non è tanto una mente artificiale quanto una catena industriale della conoscenza. Il valore economico nasce dalla capacità di organizzare tre passaggi fondamentali: raccogliere enormi quantità di dati provenienti dalle attività umane, analizzarli attraverso modelli matematici e statistici, e trasformarli in sistemi automatici di previsione, classificazione e decisione.
L’intelligenza artificiale appare più come un’infrastruttura industriale che organizza e sfrutta conoscenza sociale e lavoro cognitivo distribuito. In questa lettura, il vero motore dell’AI non è la macchina ma la rete di attività umane da cui i dati vengono estratti.
Bostrom guarda allo stesso fenomeno da una prospettiva quasi opposta. Per lui il punto centrale non è l’economia dei dati ma la traiettoria evolutiva dell’intelligenza stessa. I sistemi attuali possono dipendere da grandi quantità di dati e da infrastrutture industriali, ma rappresentano soltanto una fase iniziale di un processo più ampio.
Nel suo lavoro sulla superintelligenza, Bostrom sostiene che l’AI potrebbe superare le capacità cognitive umane in molti domini, dando origine a sistemi capaci di apprendere, migliorarsi e pianificare strategie con una rapidità impossibile per gli esseri umani. In questa prospettiva l’AI non è soltanto uno strumento economico, ma una nuova forma di agente cognitivo che potrebbe trasformare profondamente la storia della civiltà.
Tra queste due analisi e prospettive divergenti, la questione di fondo è decidere se l’intelligenza artificiale è l’inizio di una nuova forma di intelligenza destinata a ridefinire il futuro della specie.
5. Il ritorno alla politica
Per Bostrom, il problema decisivo riguarda il futuro della capacità cognitiva delle macchine. Se i sistemi di intelligenza artificiale dovessero superare le capacità umane in molti campi, l’umanità si troverebbe di fronte a un passaggio storico senza precedenti. Una superintelligenza non sarebbe semplicemente uno strumento più potente, potrebbe sviluppare strategie, obiettivi e modalità di azione difficili da prevedere o controllare.
Come garantire che sistemi estremamente intelligenti agiscano in modo compatibile con i valori umani? Come evitare che obiettivi apparentemente innocui producano conseguenze catastrofiche se perseguiti da un’intelligenza immensamente più potente di quella umana? In questa prospettiva, la questione politica riguarda soprattutto la governance di una tecnologia che potrebbe emergere domani: la cooperazione internazionale, la regolazione della ricerca, la prevenzione di corse agli armamenti tecnologici, lo sviluppo di metodi per rendere sicuri sistemi sempre più autonomi.
Per Pasquinelli, invece, l’intelligenza artificiale non appare come un’entità autonoma che si prepara a superare l’essere umano, ma come una tecnica costruita attraverso enormi processi di estrazione di dati, lavoro e conoscenza sociale. Dietro l’apparente neutralità dell’algoritmo si nasconde una rete di lavoro umano e un’economia delle piattaforme che concentra risorse e potere in poche grandi imprese tecnologiche.
In questa prospettiva, l’intelligenza artificiale non è tanto una futura super mente quanto una infrastruttura industriale e cognitiva che struttura già oggi il lavoro, la produzione culturale e la circolazione delle informazioni. Il problema politico sta nella concentrazione di potere nelle infrastrutture digitali che raccolgono dati, addestrano modelli e governano gli ecosistemi informativi.
Nella prospettiva di Bostrom, la sfida è anticipare i rischi e costruire istituzioni capaci di governare una tecnologia potenzialmente destabilizzante, in quella di Pasquinelli, la questione non riguarda soltanto che cosa potranno fare le macchine domani, ma chi controlla oggi le infrastrutture attraverso cui le macchine apprendono, classificano e interpretano il mondo.
Conclusione
Il confronto tra Nick Bostrom e Matteo Pasquinelli mette in luce due modi radicalmente diversi di pensare l’intelligenza artificiale, che non si limitano a divergere su alcune valutazioni tecniche, ma partono da presupposti teorici e politici differenti.
Bostrom guarda all’AI come a una soglia evolutiva. Il suo interrogativo principale riguarda ciò che potrebbe accadere quando le capacità cognitive delle macchine supereranno quelle umane. In questa prospettiva, l’intelligenza artificiale è soprattutto una potenzialità, una nuova forma di mente che potrebbe emergere da sistemi computazionali sempre più complessi. Da qui nasce la sua preoccupazione per il rischio esistenziale. Se una superintelligenza dovesse svilupparsi senza adeguati meccanismi di controllo o allineamento con i valori umani, potrebbe perseguire obiettivi incompatibili con la sopravvivenza o il benessere dell’umanità. Il problema, per Bostrom, è dunque anticipare il futuro e progettare istituzioni, regole e strategie capaci di governare questa possibile transizione.
Pasquinelli, al contrario, invita a spostare lo sguardo dal futuro al passato e al presente. Per lui l’intelligenza artificiale non è una mente che nasce dal nulla, ma il risultato storico di un lungo processo di estrazione e formalizzazione del sapere umano. Gli algoritmi apprendono da enormi quantità di dati prodotti dal lavoro, dalla comunicazione e dalle attività sociali degli individui. In questa prospettiva l’AI non è un soggetto autonomo, ma un’infrastruttura che incorpora e riorganizza conoscenze collettive dentro sistemi economici e tecnologici. Il problema non è quindi una possibile coscienza artificiale futura, ma le forme di potere e di accumulazione che già oggi governano l’uso degli algoritmi.
Considerate insieme, queste due prospettive permettono di vedere l’intelligenza artificiale da due angolazioni complementari, come possibile trasformazione radicale dell’intelligenza nel lungo periodo e come dispositivo politico ed economico che già oggi riorganizza il sapere, il lavoro e il potere. Comprendere l’AI richiede probabilmente di tenere insieme entrambe queste dimensioni, l’immaginazione del futuro e l’analisi delle condizioni storiche che lo rendono possibile.
Brevi biografie
Matteo Pasquinelli (1974) è filosofo e teorico dei media, professore associato di Filosofia della scienza presso l’Università Ca’ Foscari di Venezia. La sua ricerca indaga il rapporto tra intelligenza artificiale, economia politica e storia delle tecniche di automazione. È autore di The Eye of the Master: A Social History of Artificial Intelligence (Verso, 2023), un’opera che ricostruisce le radici sociali e materiali dell’AI, premiata con il Deutscher Memorial Prize 2024. Coordina il progetto ERC AIMODELS dedicato all’epistemologia storica dell’intelligenza artificiale.
Nick Bostrom (1973) è un filosofo svedese noto per i suoi studi sui rischi esistenziali e sul futuro dell’intelligenza artificiale. È stato fondatore e direttore del Future of Humanity Institute all’Università di Oxford e autore di opere influenti come Superintelligence: Paths, Dangers, Strategies (2014). Il suo lavoro esplora le implicazioni etiche e strategiche dello sviluppo di sistemi di intelligenza artificiale avanzata, in particolare la possibilità che una superintelligenza possa superare le capacità cognitive umane e trasformare radicalmente il destino della civiltà.
POV nasce dall’idea di mettere a confronto due autori viventi, provenienti da ambiti diversi - filosofia, tecnologia, arte, politica - che esprimono posizioni divergenti o complementari su un tema specifico legato all’intelligenza artificiale.
Si tratta di autori che ho letto e approfondito, di cui ho caricato i testi in PDF su NotebookLM. A partire da queste fonti ho costruito una scaletta di argomenti e, con l’ausilio di GPT, ho sviluppato un confronto articolato in forma di articolo.
L’obiettivo non è giungere a una sintesi, ma realizzare una messa a fuoco tematica, far emergere i nodi conflittuali, perché è proprio nella differenza delle visioni che nascono nuove domande e strumenti utili a orientare la nostra ricerca di senso.