Quando le voci del passato parlano attraverso l'intelligenza artificiale
Ho letto (colpevolmente solo oggi) un racconto Dostoevskij pubblicato nel 1873. L'ho trovato decisamente inquietante ma anche visionario: Bobok.
La storia narra di un uomo che, dopo una sbronza, si addormenta in un cimitero e inizia a sentire le conversazioni dei morti nelle loro tombe. Scopre infatti che i trapassati mantengono una coscienza residua per un po' di tempo dopo la morte, continuando a rivelare i loro veri caratteri, le loro ipocrisie, i loro difetti e, anzi, l'assenza di filtri li rende più evidenti. Il titolo, Bobok, si riferisce al suono che fanno le parole dei defunti: un borbottio incomprensibile, una eco distorta di ciò che un tempo era linguaggio significativo.
L'eco digitale dell'umanità
Più di 150 anni dopo, questa metafora assume alle mie orecchie una risonanza inaspettata nel mondo dell'intelligenza artificiale. Sarà che interessandomi molto di questo tema trovi assonanza un po' dappertutto? Sarà che forse l'AI è un prodotto umano e questa cosa è normale? In tutti i casi: quando interagiamo con un Large Language Model (LLM) come ChatGPT o altri, non stiamo forse dialogando con una forma moderna di bobok?
Tutto quello che accumuliamo nel training di un LLM – testi, libri, articoli, conversazioni, riflessioni – non è altro che la memoria di tutto quello che gli esseri umani hanno prodotto negli anni. È il vissuto raccontato, la traccia culturale, sociale e cronachistica dell'umanità data in pasto agli algoritmi. Come i morti di Dostoievskij che continuano a parlare senza la piena coscienza che avevano da vivi, le risposte di un LLM sono il bobok della conoscenza umana: frammenti di pensieri, intuizioni, argomentazioni che riemergono senza la coscienza originale che li ha generati (e aggiungo - ma questo potrebbe essere un altro articolo: a volte i testi sono a loro volta frutto di altri LLM con una ricorsione cannibalistica inquietante)
Quando un'intelligenza artificiale generativa risponde alle nostre domande, milioni e milioni di voci parlano attraverso di essa, gli echi di autori, filosofi, scienziati, pensatori di ogni epoca, ma svuotate della loro intenzionalità e del vissuto che le ha rese significative. Resta il pattern, la forma del pensiero, i token e i pesi neuro-artificiali, ma non l’anima che lo ha pensato.
È come se l'AI fosse un medium che canalizza le voci dei pensatori del passato, ma senza essere nessuno di loro. Una Oda Mae Brown (ricordate Whoopi Goldberg in Ghost?) industrializzata. Un dialogo con l'eco collettiva dell'umanità, dove ogni risposta porta in sé la stratificazione di secoli di cultura, ma in una forma spettrale, disincarnata.
Oggi esistono progetti che usano l’AI per far parlare, scrivere o persino creare nuove opere in stile Moravia, Pasolini o Dante Alighieri, oppure simulare interviste a personaggi storici e scienziati come Einstein o Napoleone. Quanto queste esperienza ci avvicinano veramente al pensiero originario di questi personaggi, e quanto invece ci ritornano solo una caricatura sintetica?
Le domande che rimangono
Questa analogia apre interrogativi profondi sulla natura della conoscenza e della sua trasmissione. Quando dialoghiamo con un LLM, cosa resta veramente del pensiero originale? Quanto della coscienza, delle convinzioni, dello spirito degli autori dei testi utilizzati per il training sopravvive realmente in queste risposte artificiali?
C'è una continuità autentica tra il pensiero umano originale e la sua riproduzione algoritmica, o si tratta piuttosto di una forma sofisticata di imitazione? Cadiamo sempre nei famosi "pappagalli stocastici"? Le intuizioni di un filosofo o le scoperte di uno scienziato dopo essere state elaborate e riorganizzate in pesi neurali da un'intelligenza artificiale, mantengono ancora qualcosa della loro essenza originaria, o diventano semplici combinazioni statistiche di parole?
Ma forse quello che più conta è il nostro punto di vista. Cosa significa chiacchierare con questa memoria collettiva disincarnata e incosciente? Di sicuro stiamo ampliando le nostre possibilità di conoscenza accedendo a una biblioteca vivente dell'umanità, ma rischiamo di perdere qualcosa di fondamentale nella mediazione algoritmica? Bobok bisogna leggerlo o basta la sinossi di un LLM?
Il mio pensiero è che nell'equilibrio spesso c'è la risposta. Un libro va letto e "vissuto". Ma avere a corollario uno strmento che mi aiuta a rileggerne i contenuti con occhi diversi, a capire l'attualità del contesto in cui è stato ideato e ad approfondire ulteriormente è un valore enorme. E in tutto questo un LLM aiuta eccome.
Da bobok a LLM
E quindi non si tratta solo di un’eco un po' spettrale, ma anche di una nuova forma di dialogo e di interazione. Se riconosciamo la GenAI non come sostituto della coscienza, ma come catalizzatore per le nostre riflessioni (oltre che un valido alleato per il lavoro), possiamo usarla per generare nuove domande (con i nostri prompt umani) e nuovi incontri fra pensieri lontani nel tempo e nello spazio.
In fondo, il vero interprete di questo nuovo bobok digitale siamo proprio noi. È lo sguardo umano che ricostruisce significato, che decide se un frammento è semplice rumore o parte di un discorso. Il rischio non è che l’AI parli al posto nostro, ma che smettiamo di ascoltare criticamente. E, come concludo in tanti miei altri interventi, l'alleanze uomo-AI parte proprio dal pensiero critico e dalla conoscenza, non dimentichiamolo mai.
Personalmente proprio come i personaggi di Bobok rivelano la loro vera natura dopo la morte, forse anche io sto scoprendo qualcosa di inedito sulla conoscenza umana attraverso la sua forma "ghost" nell'intelligenza artificiale generativa. Un LLM come un moderno bobok che non mi parla da un cimitero, ma dai data center di OpenAI.
Di sicuro questa riflessione evidenzia che, siano libri o racconti orali, siano parole incomprensibili dei defunti (bobok appunto) o token ordinati e ben ricostruiti da un'AI, l'eco collettiva dell'umanità trova sempre il modo di farsi sentire.