1. Segni, algoritmi e interpretazione
CAB: Se tutto è segno, anche l’intelligenza artificiale può essere considerata un sistema semiotico? Che cosa accade alla figura dell’autore quando i testi sono generati da algoritmi?
UMBERTO ECO: Naturalmente sì, ogni dispositivo capace di produrre e organizzare segni rientra nel dominio della semiotica. L’intelligenza artificiale è, a tutti gli effetti, una gigantesca macchina semiotica. Ma produrre segni non significa produrre senso. Il senso non è contenuto nel segno come un oggetto nella scatola, ma emerge nell’atto interpretativo, che è sempre umano, storico, situato e fallibile.
L’algoritmo non interpreta nel senso forte del termine, calcola correlazioni, stabilisce relazioni statistiche tra sequenze di segni e le restituisce in forma plausibile. In questo senso è un formidabile dispositivo combinatorio, capace di imitare strutture linguistiche e narrative con una precisione crescente. Tuttavia l’imitazione non coincide con la comprensione. Il significato non nasce dalla sola coerenza sintattica o dalla verosimiglianza semantica, ma dall’incontro tra un testo e una comunità di interpreti che lo leggono, lo discutono e lo contestualizzano.
È il lettore, l’interprete, che continua a costruire il mondo del significato, trasformando una sequenza plausibile di parole in esperienza di senso. Senza questa attività interpretativa, il testo resta una superficie di segni potenzialmente infinita, ma priva di direzione. L’intelligenza artificiale amplia lo spazio delle possibilità discorsive, ma non sostituisce la responsabilità dell’interpretazione, al contrario, la rende più necessaria.
Quanto alla figura dell’autore, non è mai stata una presenza stabile o un’origine incontestabile del significato. Quando parlavo di “opera aperta”, intendevo che ogni testo vive nella pluralità delle sue interpretazioni e nella negoziazione continua tra intenzione dell’autore, struttura del testo e attività del lettore. L’autore non è mai stato il sovrano assoluto del senso, ma una delle sue condizioni di possibilità.
Oggi ci troviamo di fronte a testi privi di un’intenzione originaria riconoscibile, generati dall’assemblaggio di archivi discorsivi precedenti. Questo non segna la fine dell’autore, bensì la moltiplicazione delle sue maschere. L’autore diventa una funzione distribuita, un nodo in una rete di enunciazioni, una posizione temporanea che può essere occupata da chi seleziona, orienta, e si assume la responsabilità di un discorso.
L’algoritmo produce enunciati, ma l’autorialità continua a emergere nella responsabilità di chi interpreta, sceglie, attribuisce valore e senso a ciò che legge. In un mondo in cui i testi possono essere generati automaticamente, essere autore significa sempre più assumersi il rischio dell’interpretazione, decidere che cosa merita di essere letto. In questo senso, la crisi dell’autore coincide con la sua trasformazione. Non scompare, cambia funzione, diventa un esercizio di responsabilità.
2. Verità e disinformazione
CAB: Viviamo in un’epoca di fake news e realtà manipolate. Che cosa direbbe oggi? L’AI rischia di amplificare questa confusione?
UMBERTO ECO: Nulla di radicalmente nuovo. Ogni epoca ha conosciuto le proprie menzogne organizzate, le proprie fabbriche di narrazione e di propaganda. La differenza, oggi, non sta nell’esistenza della menzogna, ma nella velocità e nella scala con cui i segni circolano, si sovrappongono e si rafforzano a vicenda.
Questa accelerazione produce un effetto particolare: la menzogna tende a diventare indistinguibile dalla verità non perché si trasformi in verità, ma perché ne imita perfettamente la forma. Assume la grammatica della credibilità, adotta i codici dell’autorevolezza, riproduce il lessico della conoscenza. Il problema, dunque, non è l’errore - inevitabile in ogni processo cognitivo - bensì la progressiva perdita di criteri condivisi per riconoscerlo e circoscriverlo. Quando una comunità non dispone più di strumenti comuni di interpretazione e verifica, ogni discorso può aspirare allo statuto di verità semplicemente perché riesce a presentarsi come plausibile.
L’intelligenza artificiale si inserisce in questo scenario come una gigantesca macchina intertestuale. Non produce verità, ma testi plausibili; non genera conoscenza, ma configurazioni linguistiche coerenti. La plausibilità è una categoria retorica, e riguarda ciò che appare convincente, ben costruito, compatibile con le aspettative del lettore. La verità, al contrario, è una costruzione sociale complessa che richiede istituzioni simboliche, pratiche di controllo, responsabilità interpretative e conflitto critico. Senza queste condizioni, la distinzione tra vero e falso si attenua fino a diventare irrilevante.
In una società che ha progressivamente eroso le proprie grandi narrazioni e indebolito le strutture che un tempo garantivano autorevolezza al discorso pubblico - scuola, editoria, università, giornalismo - la plausibilità tende a sostituire la verità come criterio dominante. Ciò che appare coerente, immediato, condivisibile diventa automaticamente credibile. Il risultato è il trionfo del verosimile, un universo discorsivo in cui la verità non viene necessariamente negata o confutata, ma semplicemente resa superflua.
E quando la verità cessa di essere necessaria, la disinformazione non ha più bisogno di imporsi con la forza. Le basta confondersi con il flusso continuo dei segni, mimetizzarsi nella loro ridondanza. In questo senso, la sfida non è solo tecnologica, ma profondamente culturale, ricostruire le condizioni che rendono possibile distinguere tra ciò che è soltanto credibile e ciò che, con fatica, può ancora dirsi vero.
3. Società liquida e algoritmi
CAB: Nei suoi scritti ha descritto la progressiva dissoluzione delle comunità e delle grandi ideologie. L’intelligenza artificiale introduce una rottura o rappresenta solo un’accelerazione di questo processo?
UMBERTO ECO: Direi che nulla cambia, ma tutto accelera. Le grandi trasformazioni della modernità non vengono mai sostituite, vengono portate al loro punto estremo. Quando le comunità simboliche si indeboliscono e le ideologie cessano di offrire orizzonti condivisi, resta l’individuo isolato, chiamato a costruire da solo il proprio senso di appartenenza. È una condizione che si manifesta già nella tarda modernità, ma che le tecnologie digitali rendono permanente, pervasiva, quasi inevitabile.
L’algoritmo interviene esattamente in questo vuoto. Offre visibilità, riconoscimento, personalizzazione; promette una comunità su misura, una rete di affinità che sembra rispondere ai nostri desideri più intimi. Ma si tratta, in gran parte, di una simulazione di comunità. Ci sentiamo parte di qualcosa mentre siamo inseriti in sistemi di relazione calcolati, progettati per mantenerci connessi, reattivi, prevedibili. È una risposta tecnica a un problema esistenziale, la solitudine sociale dell’individuo contemporaneo.
La rottura non sta quindi nella tecnologia in sé, ma nella sua capacità di stabilizzare questa condizione. Ciò che prima era intermittente - la sensazione di isolamento, la ricerca di riconoscimento, la frammentazione dei legami - diventa ora strutturale. L’algoritmo non crea la solitudine, ma la organizza, la misura, la monetizza. E nel farlo, costruisce ambienti simbolici nei quali l’individuo si percepisce continuamente esposto e continuamente osservato.
CAB: Possiamo allora dire che l’intelligenza artificiale rafforza l’individualismo?
UMBERTO ECO: Rafforza soprattutto l’illusione di essere individui. Il soggetto contemporaneo si percepisce unico e irripetibile, libero di scegliere e di esprimersi, ma viene trattato come un insieme di dati comparabili, segmentabili, prevedibili. L’individualismo diventa così una forma sofisticata di standardizzazione, ognuno di noi è definito da ciò che consuma, guarda, desidera, e queste tracce vengono organizzate in modelli che ci restituiscono una versione statisticamente coerente di noi stessi.
L’algoritmo non ci conosce davvero, riconosce schemi. Non comprende le intenzioni, ma le inferisce, ne calcola le probabilità. Ci restituisce ciò che siamo già stati e lo chiama previsione. In questo processo l’identità si trasforma in una sequenza di dati e la libertà rischia di ridursi alla possibilità di scegliere tra opzioni già predisposte.
Il paradosso è evidente, più veniamo personalizzati, più diventiamo intercambiabili. Più ci sentiamo unici, più siamo leggibili come serie statistiche. E quando l’individuo si abitua a riconoscersi in questa immagine calcolata di sé, la distinzione tra autonomia e adattamento diventa sempre più difficile da tracciare.
4. Memoria, archivi e potere
CAB: Se le macchine possono conservare tutto, siamo davvero entrati nell’era della memoria totale, o stiamo perdendo la memoria nel momento stesso in cui accumuliamo ogni traccia?
UMBERTO ECO: La memoria totale è un’illusione tanto seducente quanto pericolosa. Senza oblio non esiste memoria, perché ricordare significa innanzitutto selezionare. La memoria non coincide con l’accumulo, ma con l’organizzazione del senso. Un archivio infinito, che trattiene ogni traccia senza distinzione, non produce conoscenza, ma rumore.
La cultura non è mai stata una semplice somma di documenti, ma un processo di scelta, gerarchia e interpretazione. Una biblioteca senza bibliotecario è solo un deposito; allo stesso modo, un universo digitale che registra ogni gesto, ogni parola e ogni immagine non garantisce comprensione, ma soltanto conservazione, che di per sé, non basta a costruire memoria condivisa.
Il punto, allora, non è che cosa viene memorizzato, ma chi decide che cosa debba essere ricordato e che cosa possa essere dimenticato. Nel Medioevo erano i monasteri a custodire e filtrare i testi; la loro selezione determinava ciò che sopravviveva del mondo antico. Oggi questo ruolo è svolto da infrastrutture tecniche e piattaforme digitali che organizzano l’accesso alle informazioni, stabiliscono priorità, rendono visibile o invisibile un contenuto. Non esiste archivio neutrale, ogni sistema di conservazione implica una politica della memoria.
L’idea di una memoria automatica e totale rischia quindi di nascondere il vero nodo del problema, la delega crescente a dispositivi tecnici e a soggetti privati del potere di archiviare, classificare e rendere recuperabile il passato. Ciò che non viene indicizzato tende a scomparire; ciò che non è facilmente accessibile smette di esistere nello spazio pubblico.
Il controllo degli archivi è sempre stato una forma di potere. Cambiano le tecnologie, non la questione. Chi governa la memoria governa anche il futuro, perché decide quali storie potranno essere raccontate, quali prove potranno essere invocate e quali esperienze resteranno nell’ombra. In un’epoca che promette di conservare tutto, la vera sfida non è salvare i dati, ma preservare la possibilità di interpretarli criticamente.
5. Democrazia, lettori e responsabilità
CAB: L’intelligenza artificiale può indebolire la democrazia?
UMBERTO ECO: La democrazia non è mai stata garantita dalla tecnologia, né ieri né oggi. Le tecnologie non producono automaticamente libertà né autoritarismo, amplificano, piuttosto, le strutture culturali e politiche che le attraversano. Tutto dipende dalla qualità dei lettori, cioè dalla capacità dei cittadini di interpretare i segni che li circondano, di riconoscere le narrazioni dominanti, di distinguere tra informazione e persuasione, tra descrizione del reale e costruzione del consenso.
Una società incapace di leggere criticamente i propri dispositivi simbolici diventa inevitabilmente più esposta alla manipolazione. Quando si smette di interpretare, si accetta che altri interpretino al posto nostro. E questi “altri” oggi non sono solo governi o media tradizionali, ma piattaforme, algoritmi, infrastrutture digitali che selezionano, organizzano e rendono visibile il mondo secondo logiche spesso opache. Delegare l’interpretazione significa delegare la costruzione del senso, e quindi una parte della sovranità democratica.
L’intelligenza artificiale, in questo scenario, non crea il problema, lo rende più evidente e più urgente. Moltiplica i segni, accelera la circolazione delle narrazioni, produce testi e immagini che imitano la plausibilità del reale. Ma proprio questa proliferazione richiede una nuova responsabilità interpretativa. La vera alfabetizzazione del futuro sarà semiotica, non basterà saper usare le tecnologie, ma occorrerà comprendere i sistemi di segni che vengono prodotti, le economie simboliche che le sostengono e gli interessi che le orientano.
Resistere non significherà rifiutare la tecnologia, bensì affrontare criticamente il linguaggio. Leggere lentamente in un ambiente che spinge alla velocità. Dubitare delle evidenze immediate in un ecosistema costruito sull’istantaneità. Riconoscere le strutture narrative che organizzano il consenso. Tornare a interpretare, cioè a esercitare quella forma di attenzione che rende possibile una cittadinanza consapevole.
Ogni atto di interpretazione consapevole è, in fondo, un atto politico. Non perché produca immediatamente cambiamento, ma perché riafferma la responsabilità del lettore. E senza lettori responsabili - capaci di confrontare, mettere in discussione - nessuna democrazia può dirsi davvero tale.
Breve bio
Umberto Eco (1932–2016) è stato filosofo, semiologo, medievalista e scrittore italiano. Professore all’Università di Bologna, ha sviluppato una teoria dell’interpretazione e della comunicazione che ha influenzato gli studi sui media e sulla cultura contemporanea. Autore di saggi fondamentali come Opera aperta e Apocalittici e integrati, e di romanzi celebri come Il nome della rosa e Il pendolo di Foucault, ha indagato per tutta la vita il rapporto tra segni, potere e società.
IIP nasce da una curiosità: cosa direbbero oggi i grandi pensatori del passato di fronte alle sfide dell’intelligenza artificiale? L’idea è di intervistarli come in un esercizio critico, un atto di memoria e, insieme, un esperimento di immaginazione.
Ho scelto autori e intellettuali scomparsi, di cui ho letto e studiato alcune opere, caricando i testi in PDF su NotebookLM. Da queste fonti ho elaborato una scaletta di domande su temi generali legati all’AI, confrontandole con i concetti e le intuizioni presenti nei loro scritti. Con l’aiuto di GPT ho poi generato un testo che immagina le loro risposte, rispettandone stile, citazioni e logica argomentativa.
L’obiettivo è riattivare il pensiero di questi autori, farli dialogare con il presente e mostrare come le loro categorie possano ancora sollecitarci. Non per ripetere il passato, ma per scoprire nuove domande e prospettive, utili alla nostra ricerca di senso.