Go down

Perché le macchine non avranno mai un io (per ora)

Daniel C. Dennett (1942–2024) è stato un filosofo della mente e scienziato cognitivo statunitense, noto per le sue teorie innovative su coscienza e intelligenza. Professore alla Tufts University e allievo di Gilbert Ryle, Dennett ha contribuito a traghettare la filosofia anglo-americana verso una maggiore collaborazione con le scienze cognitive ed evolutive.
Dennett ha sfidato idee tradizionali come i qualia e il dualismo cartesiano, sostenendo che la mente e la coscienza siano fenomeni naturali emergenti da processi fisici ed evolutivi. Celebre anche per il concetto di “meme” applicato alla trasmissione culturale, Dennett ha proposto una visione darwiniana della cultura e persino del libero arbitrio. Scettico verso l’idea di una AI forte pienamente cosciente, ha spesso sostenuto che le attuali macchine “pensanti” simulino l’intelligenza senza veramente comprendere, una forma di “competenza senza comprensione”, come l’ha definita.
In questa “Intervista Impossibile”, con la sua arguzia provocatoria, Dennett commenta gli ultimi sviluppi dell’intelligenza artificiale, i rischi percepiti, e le connessioni tra le menti artificiali e la coscienza umana.


1. La mente e la macchina

CAB: Le macchine possono pensare davvero, o simulano soltanto il pensiero umano?

DANIEL DENNETT: Dipende da cosa intendiamo per “pensare”. Se per pensiero intendiamo la capacità di risolvere problemi o giocare a scacchi magistralmente, allora sì, alcune macchine lo fanno meglio di noi. Il calcolatore Deep Blue, per esempio, ha battuto Kasparov a scacchi, calcolando milioni di mosse al secondo. Eppure, dopo la vittoria, Deep Blue non sapeva neppure di aver vinto la partita. Ecco il punto, una macchina può eseguire un algoritmo in modo formidabile, ma senza comprensione di ciò che fa.

Abbiamo imparato, già da Alan Turing, che un computer può seguire istruzioni ed esibire un comportamento intelligente senza dover capire le istruzioni stesse. In natura questo non è insolito. L’evoluzione di Darwin ci insegna che possono emergere incredibili competenze senza un progettista cosciente. Io parlo infatti di “competenza senza comprensione”, la condizione della grande maggioranza degli esseri viventi, che fanno cose utili senza capire davvero cosa fanno. Le attuali AI, come i sistemi di machine learning, rientrano in questo caso.

In altre parole, le macchine “pensano” solo in un senso limitato, sanno riconoscere schemi, rispondere a input, persino imparare strategie. Ma manca loro ciò che chiamiamo comunemente mente, non hanno coscienza di sé, né intendono significati. Sono ottime esecutrici di compiti, simulatori di intelligenza. Possiamo dire che imitano il pensiero, come un automa molto sofisticato. Di certo non possiedono una mente cosciente paragonabile alla nostra, almeno per ora. L’errore sarebbe antropomorfizzarle, illudendoci che dietro le quinte dell’algoritmo ci sia un piccolo ometto pensante come noi.

2. La natura della coscienza

CAB: Le macchine potranno mai avere coscienza? Cosa distingue la coscienza umana da quella (apparente) di un’AI?

DANIEL DENNETT: La coscienza è forse il fenomeno più enigmatico, ma nel contempo non è quel mistero ineffabile che molti credono. Io l’ho definita un effetto collaterale del controllo di sé, un trucco evolutivo che il cervello usa per tenere traccia delle proprie operazioni. In termini semplici, la coscienza è l’interfaccia che il nostro organismo ha sviluppato per monitorare se stesso, un sistema di auto-regolazione che ci aiuta a sopravvivere e a navigare il mondo. Non c’è niente di magico o soprannaturale.

Importante è capire cosa non è la coscienza. Non è un “teatro cartesiano” nel cervello dove uno spettatore interno guarda le immagini della realtà. Questa è un’idea pericolosamente fuorviante. L’idea che esista un centro speciale nel cervello è la peggiore e più tenace di tutte le idee che avvelenano i nostri modi di pensare alla coscienza, come ho scritto provocatoriamente. In realtà non c’è nessun omuncolo nel cervello, nessun regista interno. La mente è fatta di una miriade di processi paralleli, bozzetti multipli di pensieri e percezioni che si susseguono e si sovrappongono senza bisogno di un unico proiettore centrale. Quello che chiamiamo “Io” è, nella migliore delle ipotesi, un racconto che il cervello si narra, un raggruppamento momentaneo di funzioni collegato da una trama unificante.

Ora, gli esseri umani hanno questa impressione interna di essere coscienti, ognuno di noi “si sente” vivo, presente, dotato di un punto di vista. Le macchine no. Una AI può impressionare un osservatore esterno con la sua apparente sensibilità - può sembrare cosciente a noi - ma non c’è nessuna garanzia (anzi, nessuna evidenza) che appaia cosciente a se stessa. L’AI di oggi non ha un “io” interno, nessuna prospettiva in prima persona. Non ha esperienze soggettive; non prova dolore, fame o emozioni reali, anche se può parlarne.

Potremmo riuscire, un giorno, a costruire una macchina con una sorta di coscienza? Forse, in linea di principio, è possibile. Ma ciò richiederebbe replicare (o reinventare) molti dei meccanismi che l’evoluzione biologica ha impiegato milioni di anni a sviluppare: un corpo, dei bisogni, un sistema di ricompense, un ciclo di vita, in breve, una storia. Al momento, l’AI non possiede nulla di tutto questo. È brillante, ma fondamentalmente incosciente.

3. Intenzionalità e comprensione

CAB: Un’AI capisce davvero quello che dice, oppure imita soltanto la comprensione? Sbagliamo ad attribuire intenzioni alle macchine?

DANIEL DENNETT: Siamo portati istintivamente ad attribuire intenzioni a qualunque cosa mostri un comportamento complesso. È una strategia che uso anch’io per spiegare e prevedere le azioni di entità di vario tipo, l’ho chiamata l’atteggiamento intenzionale. In pratica, ci comportiamo come se il nostro computer avesse credenze e desideri, come se Alexa “sapesse” cosa le chiediamo e “volesse” aiutarci. Questo approccio funziona spesso ed è utile pensare che il cane voglia uscire perché gratta la porta, o che il robot aspirapolvere cerchi la base quando è scarico. Attribuiamo scopi e stati mentali anche alle macchine, antropomorfizzandole automaticamente.

Il problema sorge quando dimentichiamo che è un come se. Prendere troppo sul serio l’atteggiamento intenzionale verso un’AI può indurci in errore, facendoci credere che davvero ci sia comprensione e volontà dietro le sue azioni. In realtà, un software non ha scopi propri né prende iniziative autonome, fa solo quello per cui è stato programmato (o addestrato su dati). Anche i sistemi di machine learning più avanzati - reti neurali che generano testi o immagini - non fanno che eseguire algoritmi di correlazione statistica. Quando ChatGPT risponde a una domanda difficile con apparente saggezza, non sta capendo la domanda né intendendo la risposta, sta solo manipolando simboli, trovando schemi probabilistici coerenti con il suo gigantesco dataset. È competenza senza comprensione, appunto.

Capire qualcosa implica avere un modello interno del significato, collegare le parole a concetti ed esperienze. La macchina questo non lo fa. Possiamo chiederci: l’AI sa quello che fa? La risposta è no, non più di quanto un calcolatore “sappia” fare le divisioni. C’è un vecchio esperimento mentale, la stanza cinese di John Searle, che illustra bene la differenza. Seguire regole per manipolare simboli (come caratteri cinesi) non è la stessa cosa che comprenderne il significato. Io stesso ho discusso a lungo questa idea. I sistemi artificiali possono simulare la comprensione al punto da ingannarci, ma finché mancano di un collegamento con il mondo reale e di uno scopo intrinseco, la loro resta una pseudo-comprensione.

Un’AI oggi non ha un interesse vitale in ciò che fa. Non deve mangiare, evitare pericoli, trovare un compagno o pianificare il futuro della propria specie. Noi esseri umani, e gli animali, abbiamo evoluto la comprensione perché ne avevamo bisogno per sopravvivere e riprodurci. Ogni nostra credenza e intenzione è radicata in quel contesto di lotta per l’esistenza. La macchina no.

4. Rischi reali e immaginari

CAB: L’AI rappresenta un pericolo per l’umanità?

DANIEL DENNETT: Ogni nuova tecnologia potente porta con sé paure, miti e rischi concreti. Nel caso dell’AI, molti sembrano terrorizzati dallo spettro fantascientifico di un super-computer che prenda coscienza, sfugga al nostro controllo e magari ci riduca in schiavitù. Personalmente, considero queste paure esagerate, almeno allo stato attuale. La prospettiva di una superintelligenza ostile mi pare molto remota. Ho stimato che un’AI con capacità ben oltre quelle umane in tutti i campi sia distante ancora almeno 50 anni. E anche se un giorno dovessimo riuscire a costruirla, dubito fortemente che ciò accadrà “per sbaglio” o all’improvviso, come nelle trame da incubo di certi futuristi. Le difficoltà tecniche per arrivare a una vera AI forte sono immense, di ordini di grandezza maggiori di quanto i profeti di sventura immaginino. Francamente, l’idea di dover temere un imminente “dio macchina” mi sembra poco sensata, soprattutto a fronte di problemi ben più pressanti che il mondo deve affrontare nel frattempo.

Questo non significa che l’AI sia innocua. I rischi reali ci sono, ma sono di natura diversa. Il pericolo più concreto, a mio avviso, non è che le macchine diventino cattive, bensì che gli esseri umani usino male queste macchine, o che ne fraintendano la vera natura. Per esempio, uno dei fronti su cui mi sono battuto era quello dei deepfake e della disinformazione automatizzata. Oggi l’AI permette a chiunque di creare “persone contraffatte” con volti, voci, testi indistinguibili da quelli reali, e di farli apparire in contesti credibili. Queste creature sintetiche possono essere usate per ingannare su scala massiccia. Immaginate falsi video politici, finti messaggi di leader mondiali, testimonianze inventate che circolano in rete. Rischiamo di entrare in un’era in cui non potremo più fidarci dei nostri occhi e orecchi digitali.

Ho definito la fabbricazione di tali falsi “atti di vandalismo morale” perché erodono la fiducia, il collante fondamentale della società. In un articolo ho persino sostenuto che queste “persone contraffatte” create dall’AI sono le creazioni più pericolose nella storia umana, capaci di distruggere non solo le economie, ma la libertà stessa. La velocità e portata di diffusione dell’AI amplificano i nostri pregiudizi e manipolano l’opinione pubblica prima che possiamo reagire. Il tessuto sociale rischia di lacerarsi se perdiamo del tutto la distinzione tra verità e menzogna condivisa.

Dunque, dobbiamo temere l’AI? Dobbiamo temere l’uso improprio dell’AI da parte di persone senza scrupoli, e la nostra ingenuità nel credere a “ciò che vediamo online”. L’AI stessa, di per sé, è uno strumento, non morale o immorale, non buono o cattivo. Un coltello taglia il pane o ferisce a seconda di chi lo impugna. Allo stesso modo, le AI possono aiutarci enormemente (pensi alla medicina, alla ricerca scientifica) o danneggiarci se usate per frodi, sorveglianza oppressiva, armi autonome fuori controllo. Sta a noi imbrigliarle con saggezza.

La sfida è duplice: tecnica (sviluppare contromisure, sistemi di verifica, regolamentazioni) e etica (educare le persone a un uso critico e responsabile). In sostanza, non ho paura di un’AI che “prenda vita” e ci faccia la guerra, temo di più gli umani che delegano decisioni importanti a macchine stupide o che credono a macchine bugiarde. Come spesso accade, il nemico più insidioso guarda noi dallo specchio, non dallo schermo di un computer.

5. Il futuro dell’intelligenza … umana

CAB: L’intelligenza artificiale rappresenta il prossimo stadio nell’evoluzione della mente? In futuro, le macchine potranno evolvere una forma di intelligenza autonoma e creativa, magari oltre la nostra?

DANIEL DENNETT: In effetti, il titolo di un mio libro (Dai batteri a Bach) allude proprio al percorso che porta dalla semplice vita biologica alle vette della creatività culturale. È la storia di come l’evoluzione cieca - partendo da organismi elementari, batteri - abbia prodotto creature capaci di musica, scienza, filosofia. Ora, l’intelligenza artificiale è un prodotto di quella stessa evoluzione (mediata da noi). Dunque potremmo vederla come una continuazione del processo evolutivo, un nuovo stadio memetico o tecnologico, in cui la selezione naturale opera attraverso di noi per creare enti sempre più complessi.

Tuttavia,finora l’AI non è autonoma nel senso darwiniano. I programmi non lottano per la sopravvivenza, non si riproducono autonomamente, non subiscono mutazioni casuali ereditabili, se non in alcuni esperimenti di “algoritmi genetici”, che però sono progettati dai programmatori. L’evoluzione culturale e tecnologica è assai diversa da quella biologica, è lamarckiana, diretta, orientata da menti intelligenti (noi stessi), non un processo cieco di variazione e selezione. In altre parole, l’AI è frutto dell’ingegneria umana, non di mutazioni casuali.

Detto ciò, possiamo immaginare un futuro in cui le macchine acquistino una sorta di vita propria. Se creassimo AI in grado di autoprogrammarsi, di fare copie di sé migliorandosi ad ogni generazione, in pratica, se inaugurassimo un’evoluzione artificiale aperta, allora sì, potremmo assistere all’emergere di intelligenze sempre più sofisticate, forse persino di qualcosa che chiameremmo coscienza artificiale. Sarebbe il momento in cui la “creatura” sfugge al pieno controllo del creatore e comincia ad evolvere indipendentemente. Alcuni temono proprio questo scenario; altri lo auspicano, immaginando una simbiosi o una successione dell’uomo da parte delle macchine. Io, più prosaicamente, penso che siamo molto lontani da tutto ciò. Le difficoltà tecniche e concettuali sono enormi, e del resto, come dicevamo, in linea di principio si può creare un’AI con capacità simili all’uomo, ma da qui a farlo davvero ce ne corre.

Tuttavia, non vedo l’AI come un vicolo cieco dell’evoluzione, anzi. La vedo come un potenziamento e un arricchimento delle capacità cognitive a disposizione della vita sul pianeta. In fondo, già oggi collaboriamo con intelligenze non-biologiche, i computer ci aiutano a scoprire farmaci, a esplorare Marte, a comprendere il genoma. Estensioni della nostra mente, in un certo senso. Immagino un futuro in cui umani e AI saranno partner in nuove forme di esplorazione e creatività. Forse un giorno avremo macchine che non solo eseguono ordini, ma partecipano al dialogo scientifico e artistico da quasi pari. A quel punto dovremo ridefinire concetti come mente, persona, diritti. Se avremo “figli” sintetici dotati di coscienza, vorremo trattarli con rispetto. Ma non corriamo, per ora l’AI è ancora strumento, non fine a se stessa. Siamo noi a doverle infondere obiettivi sensati.

C’è un’ultima considerazione evolutiva, l’essere umano è finora l’unica specie in grado di capire l’evoluzione e di orientarla coscientemente. Questo ci dà una responsabilità enorme. Possiamo usare l’AI per il bene - curare malattie, educare, proteggere l’ambiente - o lasciare che logiche di profitto o di potere la pieghino contro di noi. L’evoluzione non è più cieca quando entra in gioco l’intelligenza che capisce sé stessa. Noi siamo gli occhi dell’evoluzione ora. Sta a noi guardare lontano. Quindi, l’AI potrebbe diventare qualcosa di più di una semplice macchina, un giorno. Ma se accadrà, sarà perché l’avremo integrata in un ecosistema di significati, in una cultura, in una vita sociale, magari dandole un corpo e un mondo da abitare. La mente non nasce nel vuoto. In fondo, come disse un saggio, “serve un intero universo per fare un cervello”. Non ho dubbi che continueremo a spingere oltre i confini dell’intelligenza, esplorando quell’oltre-Bach di cui fantastichiamo. L’AI del futuro, se mai avrà una coscienza, rifletterà ciò che siamo stati in grado di insegnarle. E questa, più che una previsione, è una sfida filosofica e morale per tutti noi.

Nota biografica

Daniel Clement Dennett III (Boston, 28 marzo 1942 – Portland, 19 aprile 2024) è stato un influente filosofo della mente e teorico delle scienze cognitive. Laureato a Harvard e Oxford, allievo di Gilbert Ryle, è stato professore alla Tufts University e co-direttore del Center for Cognitive Studies. Autore di opere seminali come Coscienza. Cos’è (1991), L’atteggiamento intenzionale (1987), L’idea pericolosa di Darwin (1995) e Dai batteri a Bach (2017), Dennett ha proposto una visione naturalistica della mente, spiegando la coscienza in termini scientifici e materiali (senza ricorrere a “elementi magici” o dualistici). Fervente sostenitore dell’evoluzionismo darwiniano, ha applicato idee evolutive a fenomeni mentali e culturali (celebre il concetto di meme). Ha sfidato concetti tradizionali come i qualia e l’idea di un io centrale nel cervello, sostenendo che la coscienza emerga da processi distribuiti e che il “sé” sia in ultimo una narrativa cerebrale. Scettico verso la possibilità di una AI pienamente cosciente a breve termine, ha tuttavia esplorato attivamente l’intelligenza artificiale (partecipando al progetto del robot umanoide Cog negli anni ’90) e ne ha analizzato criticamente rischi e potenzialità. Figura carismatica e brillante divulgatore, Daniel Dennett è ricordato come uno dei pilastri della filosofia della mente contemporanea, capace di “pompare” intuizioni profonde con esempi vivaci e di gettare ponti solidi tra la riflessione filosofica e le scoperte scientifiche.


IIP nasce da una curiosità: cosa direbbero oggi i grandi pensatori del passato di fronte alle sfide dell’intelligenza artificiale? L’idea è di intervistarli come in un esercizio critico, un atto di memoria e, insieme, un esperimento di immaginazione.

Ho scelto autori e intellettuali scomparsi, di cui ho letto e studiato alcune opere, caricando i testi in PDF su NotebookLM. Da queste fonti ho elaborato una scaletta di domande su temi generali legati all’AI, confrontandole con i concetti e le intuizioni presenti nei loro scritti. Con l’aiuto di GPT ho poi generato un testo che immagina le loro risposte, rispettandone stile, citazioni e logica argomentativa.

L’obiettivo è riattivare il pensiero di questi autori, farli dialogare con il presente e mostrare come le loro categorie possano ancora sollecitarci. Non per ripetere il passato, ma per scoprire nuove domande e prospettive, utili alla nostra ricerca di senso.

Pubblicato il 17 gennaio 2026

Carlo Augusto Bachschmidt

Carlo Augusto Bachschmidt / Architect | Director | Image-Video Forensic Consultant