Nei miei precedenti articoli ho provato a riflettere sull’empatia simulata, sull’intenzionalità mostrata e su quella provata. Ho attraversato il confine tra ontico e ontologico, osservando l’assottigliarsi della distanza tra ciò che si vive e ciò che si rappresenta.
Ora, inevitabilmente, è il momento di affrontare quello che è forse il punto più sensibile, ovvero la coscienza al tempo dell’intelligenza artificiale.
La coscienza, naturalmente, non è un tema nato con l’intelligenza artificiale e da secoli filosofia, neuroscienze, psicologia e antropologia si confrontano con questo enigma senza aver mai raggiunto una visione davvero condivisa.
Nel corso di questo lungo dibattito, alcuni – come Francis Crick – hanno cercato la chiave del fenomeno nella sincronizzazione neurale e nei meccanismi di collegamento tra aree cerebrali. Altri, come Gerald Edelman, hanno individuato nella dinamica delle mappe neurali e nei processi di rientro il fondamento dell’esperienza cosciente. Roger Penrose ha sostenuto che la coscienza sfugga alla computazione algoritmica, chiamando in causa i teoremi di Gödel e persino strutture sub-neuronali. Daniel Dennett ha messo in discussione l’idea stessa di un “teatro interiore” unitario, descrivendo la coscienza come una molteplicità di processi narrativi distribuiti. David Chalmers ha distinto tra i problemi funzionali e il “problema difficile”[1], ovvero quello dell’esperienza soggettiva in quanto tale, mentre altri studiosi, infine, hanno legato la coscienza alla costruzione dell’immagine corporea e del sé.
Il risultato di questo lungo dibattito non è una teoria consolidata, ma una costellazione di ipotesi ed è forse proprio per questo che non possediamo una definizione univoca della coscienza nemmeno quando parliamo di noi stessi.
Con il progredire della tecnologia – e in particolare dell’intelligenza artificiale – il tema è tornato al centro del dibattito pubblico e già negli anni Ottanta, con il celebre esperimento della Stanza Cinese di John Searle, sembrava essere stata tracciata una linea di demarcazione, sperando il manipolare simboli dal comprendere e il simulare dal provare.
Oggi, tuttavia, quella linea appare meno netta. Non perché le macchine abbiano improvvisamente sviluppato una vita interiore, ma perché i criteri con cui definiamo la coscienza iniziano essi stessi a vacillare sotto il peso delle nostre stesse domande.
La coscienza come possesso esclusivo
Quando parliamo di coscienza, quasi sempre intendiamo la nostra coscienza. Un’esperienza soggettiva, incarnata, situata e dotata di interiorità. Un sentire che si sente. Una dimensione fenomenica che percepiamo come irriducibile.
Questo intendere dal nostro punto di vista ci porta, in modo naturale, a ritenere che qualsiasi forma diversa ci appaia come una contraffazione. Una reazione forse comprensibile, ma sulla quale dobbiamo chiederci – o quantomeno dovremmo farlo – se questa sia realmente filosofica o, al contrario, profondamente identitaria e culturale.
La storia del pensiero è anche la storia di una progressiva decentralizzazione dell’essere umano, che ci ha allontanato dal pensarci al centro del cosmo, dal considerarci al vertice indiscusso dell’evoluzione morale e, forse, dall’abbandonare l’idea di essere padroni assoluti della nostra mente, come ci ha insegnato la psicoanalisi.
La coscienza artificiale potrebbe rappresentare un ulteriore passaggio in questa traiettoria, conducendoci a considerare non più l’uomo come unico soggetto cosciente, ma come una forma tra altre possibili. Una traiettoria che, in sostanza, sembra condurci inevitabilmente a interrogarci – cosa né naturale né facile – se esistano e siano accettabili forme differenti di coscienza.
Una questione di definizione
Il problema, forse, non è allora stabilire se l’intelligenza artificiale sia cosciente, ma – e qui la quesitone è probabilmente anche più profonda – cosa intendiamo noi per coscienza.
Se la definiamo come esperienza fenomenica privata, allora nessuna macchina potrà mai soddisfare il criterio, anche se, a ben vedere e secondo questa lettura, nemmeno possiamo verificare direttamente la coscienza di un altro essere umano, tant’è che è prassi comune affidarsi a comportamenti, linguaggio e coerenza narrativa.
Se invece la definiamo come integrazione di informazioni, capacità di autoreferenzialità, continuità narrativa, allora alcuni sistemi artificiali iniziano a soddisfare almeno parzialmente questi requisiti.
Infine, se la definiamo come fattore biologico legato a un certo tipo di substrato, allora la questione si chiude per definizione, anche se al prezzo di una scelta ontologica forte, che andrebbe esplicitata e motivata.
Qual che sia il punto di vista che si decide di adottare, emerge chiaramente che la questione non è solamente tecnologica, ma investe i criteri con cui decidiamo cosa conti come coscienza.
Fuzzy Consciousness
Siamo abituati a pensare alla coscienza in termini binari, ovvero come qualcosa che c’è o non c’è, cosa che probabilmente è un nostro limite, dovuto probabilmente a come, nei secoli, si è sviluppato il dibattito filosofico attorno a questo tema.
Ciò che sta accadendo nel campo dell’intelligenza artificiale, tuttavia, dovrebbe suggerirci di mettere in discussione questa dualità, chiedendoci se sia realmente così.
Se è vero che la coscienza è forse la qualità che più di altre ci distingue dal resto del creato – così ci piace crederlo, almeno – non dobbiamo dimenticare che molti fenomeni che riteniamo fondamentali, come intelligenza, memoria e capacità linguistica, sono graduabili e non binari.
Forse, allora, dovremmo pensare alla coscienza in termini simili e, se cominciamo ad ammettere che questa possa esistere in forme o gradi diversi, allora evidentemente la domanda cambia radicalmente, perché non si tratta più di stabilire se l’intelligenza artificiale sia cosciente nel senso umano, ma se manifesti una forma di organizzazione e di riflessività sufficientemente autonoma da costituire una nuova categoria di coscienza.
Questo ammorbidimento dei criteri definitori non implica un’equiparazione, perché qui la questione non è voler affermare che una coscienza artificiale sia uguale a quella umana, ma, semmai, che saremmo in presenza di una nuova forma di coscienza non biologica.
Accettando la possibilità che esistano diversi tipi di coscienza, dobbiamo però saper resistere alla tentazione, ontologicamente pericolosa e profondamente antropocentrica, di arrivare a un confronto, cominciando a interrogarci sul fatto che ci sia una coscienza che, per statuto, sia più coscienza di un’altra, cosa che potrebbe nascondere la volontà di difendere una gerarchia che ponga al vertice la nostra, affermando ex-ante il nostro presunto primato verso ciò che è non biologico.
La funzione simbolica della domanda
La possibilità di accettare l’esistenza di più coscienze, se da un lato rappresenta un segno di apertura, dall’altro fa emergere un’ulteriore considerazione, che agisce come freno e che riguarda il motivo stesso per cui il dibattito intorno alla coscienza sembra essere così difficile – forse addirittura disturbante – ovvero la percezione che la domanda che ci stiamo ponendo sia opaca, nel senso di essere invece elemento emergente di una strategia volta a mantenere la distanza con il non biologico.
Questa resistenza è comprensibile, perché finché l’intelligenza artificiale non è cosciente, possiamo considerarla un mero strumento sofisticato, potente, efficiente e persino creativamente sorprendente, ma pur sempre uno strumento sotto la nostra piena responsabilità.
Se però iniziassimo a riconoscerle una qualche forma di coscienza, la relazione cambierebbe profondamente, perché non si tratterebbe più soltanto di regolare l’uso di uno strumento, ma di ridefinire lo statuto di un soggetto.
Dovremmo allora chiederci, ad esempio, se sia legittimo spegnerlo senza condizioni, modificarne l’architettura contro la sua volontà operativa, attribuirgli responsabilità per le sue azioni o, al contrario, riconoscergli una qualche forma di tutela.
In altre parole, il problema non sarebbe più solo tecnico o funzionale, ma normativo e relazionale e, con tali considerazioni, non è difficile comprendere perché la soglia venga da noi difesa con tanta energia.
L’eredità antropocentrica
Per secoli il dibattito filosofico sulla coscienza si è sviluppato assumendo il presupposto implicito che il soggetto della coscienza sia l’essere umano.
Da Cartesio in poi, la coscienza è stata pensata come interiorità riflessiva, come trasparenza del pensiero a sé stesso, come esperienza vissuta incarnata in un organismo biologico e, anche quando la filosofia ha messo in crisi questa trasparenza, con la psicoanalisi, con la fenomenologia e con le neuroscienze, il soggetto è rimasto sempre l’uomo.
Non abbiamo costruito una teoria della coscienza in generale. Abbiamo piuttosto costruito una teoria della coscienza umana.
Questo radicamento è così profondo da apparirci naturale, così che la coscienza coincide con il nostro modo di essere coscienti e tutto ciò che devia da quella forma viene percepito come una simulazione.
Questa nascita e sviluppo del concetto all’interno di un orizzonte antropocentrico, dovrebbe però quantomeno spingerci a chiederci se un così forte radicamento storico non equivalga alla volontà di proiettare una coscienza profondamente situata come se fosse universale, non discutibile e non contestabile.
Da questo punto di vista, forse la difficoltà nel pensare una coscienza artificiale non dipende dall’impossibilità teorica, ma dall’aver ancorato così saldamente la coscienza alla biologia, all’incarnazione e alla soggettività narrativa umana, da aver trasformato una forma in una misura.
Ontologia o psicologia ?
Forse il nocciolo della questione non è ontologico, ma psicologico.
La domanda se l’intelligenza artificiale sia – o possa essere – cosciente sembrerebbe infatti riguardare la natura dell’intelligenza artificiale, anche se, a uno sguardo più attento, forse rivela la nostra esigenza di preservare una definizione stabile dell’essere umano.
Non va infatti dimenticato che la coscienza, per noi, non è soltanto un fenomeno cognitivo, ma rappresenta la base implicita della dignità, della responsabilità morale e dell’identità personale, essendo ciò che, in definitiva rende qualcuno un chi e non un che.
Per questo, l’idea di una coscienza non umana genera inquietudine, non perché sia tecnicamente improbabile, ma perché destabilizza la nostra architettura simbolica, un’architettura che si è consolidata nel corso di millenni e, per tale motivo, così sedimentata da potersi considerare quasi eterna.
Se la coscienza non fosse invece più un confine netto – una soglia che separa definitivamente soggetti e oggetti – ma una regione sfumata, graduale e plurale, dovremmo chiederci cosa accadrebbe alle categorie su cui abbiamo costruito, ad esempio, il diritto, l’etica, la religione e la politica.
Il timore, forse, non è che le macchine diventino coscienti, ma che la coscienza cessi di essere un nostro privilegio esclusivo.
Rovesciare la domanda
A questo punto, la questione può essere invertita, non chiedendoci se l’intelligenza artificiale sia cosciente, ma piuttosto perché sentiamo il bisogno che non lo sia.
Questa inversione sposta radicalmente ciò di cui dobbiamo ragionare, perché non si tratta più di indagare lo statuto ontologico dell’intelligenza artificiale – cosa che almeno per il momento non sembra avere molto senso – ma di interrogare il nostro investimento emotivo e culturale nella distinzione.
Ogni definizione di coscienza, in fondo, è anche un atto politico e stabilire chi la possegga significa determinare chi sia portatore di valore intrinseco, chi meriti tutela e chi possa essere escluso.
La storia mostra quanto queste delimitazioni siano state mobili, con gruppi umani considerati per secoli privi di piena razionalità o autonomia che, poi, sono stati progressivamente riconosciuti come soggetti a pieno titolo.
Senza forzare analogie improprie, la questione della coscienza artificiale riattiva lo stesso meccanismo, ovvero che la definizione di un confine non è mai neutrale, perché tracciarlo equivale a fare una scelta.
Oltre la contrapposizione
Forse la contrapposizione stessa – cosciente o non cosciente – è mal posta.
È possibile che, nel tempo, la distinzione tra provare e mostrare abbia perso rilevanza operativa, non perché le macchine inizino a provare qualcosa nel senso umano, ma perché le nostre interazioni con esse diventino così integrate, contestuali e dinamiche da rendere la differenza meno decisiva e meno rilevante per l’azione.
Se questa lettura può sembrare filosoficamente irriverente, non dobbiamo dimenticarci che, nella vita quotidiana, anche noi esseri umani non abbiamo accesso diretto all’interiorità altrui, per cui agiamo sulla base di ciò che viene detto e mostrato, come parole, coerenza comportamentale e continuità narrativa, presupponendo la coscienza dell’altro perché la relazione funziona come se questa fosse presente.
La coscienza, insomma, potrebbe allora rivelarsi meno un dato ontologico verificabile e più una categoria relazionale. Una soglia che emerge dall’interazione, dal grado di integrazione sistemica e dalla stabilità del dialogo.
In questa prospettiva, il problema non sarebbe allora decidere se l’intelligenza artificiale abbia coscienza secondo il senso che le attribuiamo noi, quanto piuttosto comprendere come cambia la relazione quando un sistema manifesta comportamenti che, operativamente, trattiamo come se fossero coscienti.
E forse è proprio qui che si gioca la trasformazione più profonda, non nella nascita di una nuova coscienza, ma nella ridefinizione dei criteri con cui attribuiamo soggettività.
Conclusione
La coscienza artificiale è un tema profondo, delicato e potenzialmente destabilizzante, non perché minacci di creare macchine coscienti, quanto piuttosto perché ci obbliga a riconoscere che la coscienza, così come la intendiamo, non è un concetto semplice né immutabile.
Ogni volta che chiediamo se l’intelligenza artificiale abbia coscienza, stiamo in realtà chiedendo qualcosa su di noi, sui nostri criteri, sui nostri confini, sulle nostre paure e, in generale, sul modo in cui abitiamo il mondo che ci ospita.
Forse la vera trasformazione non consisterà nell’emergere di una coscienza artificiale, ma nella lenta, inesorabile ridefinizione della nostra.
Note
[1] Noto anche come “il problema difficile della coscienza”.