Go down

Un esercizio di archeologia del pensiero nel tempo dell’intelligenza artificiale


Figli di Troia: ovvero loro che cerchiamo

Quella del titolo vi sembra un’affermazione esagerata?

In questo testo vorrei argomentare come la nostra corsa verso l’intelligenza artificiale generale assomigli pericolosamente al modo in cui Heinrich Schliemann cercò Troia: con troppa fretta e troppa dinamite, distruggendo strati preziosi per arrivare all’oro che credeva di cercare.

Se avrete la compiacenza di seguirmi, vedrete con me che per certi aspetti, alcune manifestazioni di questi ultimi due anni lo sono.

Sì, lo sono gli annunci stentorei (rimbombanti come quelli di Stèntore appunto) che ogni settimana ci avvisano di un nuovo traguardo raggiunto e che in breve tempo l’AGI sarà a portata di mano.

Lo sono le guerre combattute dietro motivazioni profonde ammantate di pretesti (profasis come quella alla radice della guerra fra troiani e achei, mentre gli dei che avevano innescato le azioni degli uomini, pur essendo a loro volta soggetti al fato, alternativamente aiutavano e stavano a guardare una parte o l’altra sorseggiando ambrosia allora nell’Olimpo, oggi forse coca cola sia a est che a ovest nei due regni contrapposti).

Lo sono le speculazioni che vediamo ogni giorno nei mercati, ma lo sono anche le affermazioni di chi con conoscenza di causa ci avverte dei pericoli incombenti (come Cassandra e Laocoonte che avevano tentato di mettere in guardia i Troiani, entrambi scongiurandoli di non fidarsi del “dono” lasciato dagli Achei, da temere a detta di Virgilio “et dona ferentes”).

Ricorda nulla?

Andate a vedere il video del banquet speech alla consegna del Premio Nobel a Geoffrey Hinton dell’Ottobre scorso, non è nell’Eneide, lo trovate anche su Facebook o YouTube, sono due minuti interessanti.

Ma l’analogia non si limita alle reminiscenze di figure epiche o letterarie, o ai doni forieri di distruzione, riguarda anche l’uomo moderno e lo spirito con il quale abbiamo guardato alla mitologia, all’epica e alla “verità” storica che in quei luoghi era avvenuta e come abbiamo condotto quella ricerca, cosa ci ha spinto, cosa abbiamo scoperto e soprattutto, come in questo caso, cosa abbiamo perso o distrutto cercando.

Sì, posso dirlo perché da piccolo ho letto un classico: il romanzo dell’archeologia per antonomasia che mi ha fatto innamorare della classicità ancor prima che i cartoni animati giapponesi irrompessero nella mia vita.

Il libro divulgativo di cui parlo è Civiltà sepolte (Götter, Gräber und Gelehrte in tedesco che sarebbe più: dei, tombe e studiosi e questa ultima voce è quella che a noi interessa qui) di C. W. Ceram (non vi dico quanto mi facesse ridere quella incauta abbreviazione dei nomi propri sulla copertina Einaudi che io amavo invertire per controbilanciare il peso e l’autorità che rappresentava; solo molti anni dopo ho capito che erano abbreviati perché non erano nemmeno veri visto che si trattava dello pseudonimo di Kurt Wilhelm Marek e come vedete la realtà è specchiata, ovvero il cognome è rovesciato e non ci sono più C ma K).

Mi interessa richiamare Civiltà sepolte perché non solo ha reso popolare l’archeologia, ma ha anche influenzato la percezione pubblica delle discipline umanistiche e della storia e ha parlato degli uomini, dei cosiddetti eruditi del titolo, e delle loro passioni nelle scoperte.

E poi in ultimo riguarda anche il contemporaneo, se riuscite a vedere le connessioni.

Sì posso dirlo perché sono un uomo del secolo scorso, traggo analogie e connessioni fra discipline diverse che ho studiato sulla carta e faccio parte molto probabilmente di una delle ultime generazioni che ha imparato a farlo; una cultura o un modo di concepirla direi classico e in via d’estinzione.

Ho scritto questo testo come atto di resistenza culturale.

Non per rimpiangere un passato idealizzato, ma per usare la memoria come laboratorio di analisi. Ogni riferimento che troverete al passato non è nostalgia, ma vorrebbe essere archeologia applicata: disseppellire metodi di pensiero che ci aiutino a leggere cosa stiamo perdendo oggi. La memoria non per tornare indietro, ma per andare avanti con cognizione di causa.

Lavoro da molti anni nel marketing, nell’innovazione digitale e nella comunicazione, ma quello che mi interessa oggi è riflettere e provare a capire come l’intelligenza artificiale ridefinisce non solo la tecnologia, ma la cultura, l’educazione, la memoria collettiva e lo sta facendo molto prima di riuscire a rubarci il lavoro o anche solo aiutare quello che la sa usare a farlo.

Ma cosa c’entra tutto questo con l’intelligenza artificiale di oggi? Più di quanto possiate immaginare.

Torniamo a Troia e a Ceram e perché ci serve parlarne oggi a proposito dei rischi connessi più che all’IA e al suo sviluppo, direi al modo in cui lo leggiamo e lo viviamo, o per dare termini di contesto come pesiamo certe cose e cosa ci perdiamo.

 

La dinamite degli annunci

Schliemann era un mercante e un appassionato archeologo, ma aveva un problema: credeva troppo a Omero.

Armato di Iliade e piccone, scavò attraverso millenni di storia come un bambino ai miei tempi avrebbe cercato il premio nel sacchetto delle patatine. Voleva l’oro di Priamo.

Trovò qualcosa di più complesso: nove città sovrapposte, nove epoche, nove verità. Distrusse strati preziosi credendo che Troia II fosse quella di Priamo - si sbagliava di millenni.

Noi a mio avviso oggi abbiamo un problema simile: crediamo troppo alla singolarità.

L’AGI è il nostro oro di Priamo. La promessa scintillante nascosta sotto strati di codice e calcolo. E come Schliemann, stiamo scavando con furia cieca, GPU come picconi, transformer come dinamite. Ogni modello più grande del precedente. Ogni benchmark una città rasa al suolo.

Ma cosa stiamo perdendo negli strati intermedi?

Schliemann cercava eroi e trovò cocci e si fermò solo all’oro. Noi cerchiamo superintelligenza e progresso, e ci fermeremo quando avremo trovato… cosa esattamente?

[Reperto del primo strato: Schliemann trovò nove Troie. Noi quanti modelli scarteremo prima di capire che ogni versione racconta una verità diversa sullintelligenza?]

Percorso di ricerca: lIA come nuovo mito fondativo

Se ogni modello è una Troia, allora lIA stessa è divenuta il nostro poema epico, un mito fondativo che scriviamo per dare senso al nostro tempo.

LIA è la nostra Iliade, unepica digitale che scriviamo token per token, con i CEO come eroi achei e le GPU come navi pronte a salpare per lAGI. Schliemann trasformò un poema in una mappa del tesoro; noi trasformiamo lIA in un mito fondativo, una storia che dà senso al nostro tempo. Ma come ogni mito, lIA oscura tanto quanto rivela: parliamo di superintelligenza, ma ignoriamo le Troie quotidiane – le comunità che usano lIA per tradurre dialetti, i ricercatori che la usano per catalogare specie o scoprire nuovi materiali, gli artisti che la sfidano con poesie imperfette. Questo mito, con i suoi Titani e le sue promesse, rischia di diventare un cavallo di Troia: ci seduce con loro, ma nasconde la perdita di ciò che rende umano il nostro viaggio.

Come possiamo riscrivere questo mito? Un percorso di ricerca potrebbe essere narrare lIA non come una conquista epica, ma come una storia collettiva, fatta di strati minori, di voci marginali, di usi quotidiani; di quella sana boring AI che abbiamo usato per anni senza fara tanto chiasso. Immaginate unIA che non aspira allAGI, ma si accontenta di essere un cantastorie: che traduce il dialetto di un pescatore, che aiuta una maestra a spiegare Rodari, che conserva il caos di un forum anni 2000. Potremmo sviluppare modelli che non inseguano il mito della perfezione, ma celebrino la frammentazione, come unarcheologia che ricostruisce una città non dalle mura, ma dai mercati, dalle piazze, dalle vite. Solo così lIA potrebbe diventare un mito che unisce, non che divide.

Ma chi sono i narratori di questo mito? Come Schliemann aveva Omero, i nostri archeologi moderni – da Altman ai Titani del silicio – inseguono unepica che forse non capiscono.

 

Ognuno ha gli Schliemann che si merita

Nove modelli, nove verità. Ma chi guida questo scavo frenetico? Ogni epoca ha gli archeologi che si merita.

Se Schliemann aveva Omero come riferimento, temo che Altman possa avere Ready Player One, buffo che un libro del 2011 e un film del 2018 sia vecchio ormai (ma del resto anche lui si chiama Altman).

Ma almeno Heinrich buonanima aveva letto Omero. Noi abbiamo un problema peggiore: crediamo troppo ad articoli su Medium o a post su LinkedIn che riassumono paper che citano preprint.

GPT-2 era una città. GPT-3 un’altra. Claude 3,5, Gemini 2.1, stratificazioni di possibilità che scartiamo appena appare il modello successivo. Ogni livello racconta una storia diversa su cosa significhi “comprendere”, “ragionare”, “essere intelligenti”. Ma noi vogliamo solo arrivare al tesoro finale.

 

LIliade digitale

Schliemann aveva Omero. Un poema trasformato in mappa del tesoro, mitologia scambiata per GPS archeologico.

Noi abbiamo Internet.

L’AI non ha letto l’Encyclopædia Britannica con la sua prosa misurata e verificata. Ha ingoiato Reddit, Twitter, YouTube, Quora e forse anche con i torrent di The Pirate Bay (illegali, ma almeno contenuti veri). Ha imparato l’umanità non dai saggi ma dai meme. Non da peer-reviewed papers ma da Yahoo Answers.

Schliemann almeno aveva una fonte autorevole: l’Iliade, l’IA moderna cosa ha usato come mappa del tesoro? L’intero Internet, con tutto il suo caos: da Reddit ai paper scientifici, da Wikipedia a Yahoo Answers. È come se Schliemann avesse scavato usando non l’Iliade originale, ma un miscuglio di riassunti, Bignami, parodie, commenti e fanfiction su Troia.

L’AI conosce più barzellette che teoremi. Sa più di #truecarbonara che di Cicerone. Ha visto più foto di gatti che di cattedrali. La sua Iliade è scritta in emoji.

L’AI che ha “letto” Internet per capire l’umanità è come un alieno che studia la Terra guardando solo reality show. Tecnicamente accurato. Esistenzialmente tragico. Esilarantemente sbagliato. In altre parole: perfetto.

L’AI ha letto tutto, ma è come la biblioteca di Borges: contiene ogni libro possibile, quindi nessun libro ha più senso.

Fintanto che usavamo internet potevamo sperare di imbatterci in verità, in documenti, in libri anche.

 

Le cattedrali del sapere analogico

Ma aspetta. Le vere mappe del tesoro non sono online. Sono nelle librerie dell’usato, dove i manuali di AI degli anni ’90 giacciono indisturbati, non corrotti da SEO o algoritmi di raccomandazione.

Musei? Tengono le GPU antiche sotto vetro come reliquie, cartellini che spiegano FLOPS a visitatori annoiati.

Biblioteche moderne? Libri scritti con l’IA e stampati digitalmente, licenze digitali che scadono, ebook che scompaiono, paper dietro paywall.

Ma nelle librerie dell’usato, che sono ormai come l’abbazia del Nome della Rosa e custodiscono il sapere che i più non sanno più leggere, lì trovi i sussidiari dove c’era differenza tra “leggere” e “comprendere”, libri scritti da autori pubblicati da case editrici.

A Cambridge ho trovato alla fine degli anni ’90 libri annotati dai miei filosofi preferiti nella biblioteca del dipartimento, ma oggi? L’editoria è cambiata, ci sono portali per i paper scientifici o pubblicazioni di ogni sorta e non c’è più la riserva di mandare alle stampe le cose che non durano e per questo anche le biblioteche non son più una garanzia (a meno che non ci sia un bibliotecario illuminato).

Magari in una libreria dell’usato di Boston trovi “Perceptrons” di Minsky con note a margine di qualche graduate student deluso o a Pittsburgh “Robot: Mere Machine to Trascendental Mind” di Moravec annotato da qualche suo allievo che lo portava all’esame convinto. Quella è archeologia vera. Quello è sapere non filtrato.

Anche la vecchia internet, era interessante… c’era un po’ di tutto, ma c’era quello che interessava alle persone, porno e gattini inclusi ovviamente, ma c’erano i blog e dei siti i contenuto, prima che flash e i plugin soppiantassero l’html, ora se siete curiosi li trovate con Wayback Machine, offerto da Internet Archive, permette di visualizzare versioni di siti web salvate in passato.

Infatti li potevi trovare digitalizzati nell’architettura del web, dove c’era uno schedario che ancora funzionava a cassetti e aveva sostituto la classificazione Dewey con la SEO, ma con l’IA siamo entrati in una biblioteca che ha tutti i libri, ma cose se fossero stati frullati in un mixer o tritati in un distruggi documenti e riallineati  secondo nuove logiche o dovremmo dire pesi.

ChatGPT ha letto tutto Rodari, ma non ha mai riso. Ha processato tutto Quark di Angela magari, ma non si è mai meravigliato. Ha analizzato Calvino, ma non ha mai sognato città invisibili. È il perfetto studente del nostro tempo: sa tutto, capisce poco o niente, genera compiti perfetti. Ecco perché ci spaventa: ci somiglia troppo.

 

Dal Rocci a Google: archeologia della ricerca

Il web aveva tutto, anche troppo, e gattini a parte, cercare su Google poteva essere in certi casi come confrontarsi col Rocci, l’unico, l’inimitabile vocabolario di greco antico col quale la mia generazione si è confrontata o è venuta a patti. Come in quel dizionario per le versioni, nelle SERP, a cercare,  c’era quello che ti serviva per quel momento, ma con l’IA la risposta viene costruita con una dataset di dati reperiti on-line e quello che inserisci tu e per questo le differenze dico che aumentano perché se prima un buon vocabolario e una certa cultura, la conoscenza della logica booleana e delle lingue, aiutavano, ora si avvera la profezia autoavverante: garbage-in garbage-out.

Angela aveva i documentari BBC. Li studiava fotogramma per fotogramma. Li smontava, li ricostruiva, li rendeva nostri. L’AI ha Reddit - e lo rigurgita tale e quale.

Nelle librerie dell’usato trovi ancora i vecchi sussidiari. Quelli dove c’era differenza tra “leggere” e “comprendere”.

Dove gli esercizi chiedevano “Cosa voleva dire l’autore?” non “Genera un testo simile”.

Walter Benjamin parlava dell’aura perduta dell’opera d’arte nell’epoca della sua riproducibilità tecnica. Non aveva visto niente. L’AI è la perdita del pensiero stesso. Ogni idea generata è già una copia di una copia, senza originale.

 

I tombaroli del silicio

Ma Schliemann almeno scavava alla luce del sole.

I tombaroli digitali operano nell’ombra. Scraping di dataset protetti. Training su modelli proprietari. Knowledge distillation che in pratica è furto intellettuale con PhD. Ma a differenza dei tombaroli di Cerveteri, non vendono nemmeno oggetti - vendono simulacri di simulacri.

Come i saccheggiatori di tombe antiche, vendono frammenti senza contesto. I modelli addestrati su dati ‘scrapati’ senza permesso sono come vasi attici venduti senza certificato di provenienza. Belli, ma senza contesto. E spesso falsi.

I Childan dell’AI (per chi ricorda il personaggio di la svastica su sole di Dick) prosperano su Hugging Face. “Modello genuino, signore, discendenza diretta da GPT-4, glielo garantisco io.”, ma è come l’autenticità degli oggetti pre-bellici nel negozio di Childan: una performance di originalità, vera non originalità. Repliche di repliche, ombre di ombre.

I tombaroli del 2025 non hanno questa grazia. Scraping senza trasformazione. Dataset rubati senza digestione. Come saccheggiatori di tombe che vendono cocci senza capire la ceramica, manca il passaggio angeliano: dal copiare al creare un linguaggio proprio.

 

Le sette Troie che rischiamo di non leggere più

Come Schliemann trovò nove città sovrapposte, anche l’IA ha attraversato ere distinte, scaviamo dunque attraverso strati di intelligenza artificiale, ognuna sepolta dalla successiva:

TROIA I - LEtà dellInnocenza (1950-1970)

Cosa si cercava: I primi insediamenti. Il neurone artificiale perfetto, una macchina che potesse apprendere e classificare il mondo Cosa si trovò: Il Perceptron di Rosenblatt - un singolo neurone che prometteva di classificare il mondo; le macchine imparavano a distinguere Cosa si distrusse: L’illusione della semplicità - Minsky e Papert dimostrarono i limiti nel ’69, e rasero al suolo la prima città, prima distruzione Nel frattempo in Italia: Il maestro Manzi alfabetizzava l’Italia con “Non è mai troppo tardi”

Tema centrale: La prima caduta dellIA, quando lottimismo si scontrò con la matematica

 

CAPITOLO II: TROIA II - La Rinascita Perduta (1970-1986)

Cosa si cercava: La Rinascita. Reti che imparassero dai propri errori, sistemi esperti che catturassero la conoscenza umana Cosa si trovò:Learning representations by back-propagating errors” di Rumelhart, l’algoritmo che permetteva alle reti di correggersi. Una rinascita dell’apprendimento, con reti più adattive ma ancora lente Cosa si distrusse: La pazienza, reti troppo lente, troppo limitate. I sistemi esperti promettevano di più. Secondo inverno dell’IA, seconda città sepolta Nel frattempo in Italia: I bambini leggevano Favole al telefono di Rodari e imparavano a fantasticare

Tema centrale: Quando lIA scoprì di poter sbagliare (e imparare), ma il mondo non aveva tempo

 

CAPITOLO III: TROIA III - LEra dei Matematici (1986-1995)

Cosa si cercava: Gli abitanti migrano verso terre più promettenti. L’era delle macchine a vettori di supporto. Eleganza matematica, algoritmi che non mentissero su ciò che sapevano Cosa si trovò: Support Vector Machines di Vapnik, Deep Blue che batte Kasparov Cosa si distrusse: L’umiltà - Deep Blue non capiva gli scacchi, li calcolava. Intelligenza o forza bruta? Nel frattempo in Italia: Piero Angela “saccheggiava” la BBC come un tombarolo illuminato

Tema centrale: Quando lIA diventò potente ma restò stupida

 

CAPITOLO IV: TROIA IV - Il Risveglio dei Titani (1995-2012)

Cosa si cercava: I Titani iniziano a interessarsi. Google assume Hinton, Facebook corteggia LeCun. Reti profonde che catturassero la complessità del mondo reale Cosa si trovò: Deep belief networks di Hinton, le GPU che trasformavano il calcolo parallelo. ImageNet diventa il nuovo campo di battaglia. Cosa si distrusse: L’idea che l’IA fosse un gioco accademico - Google, Facebook, Microsoft si svegliarono Nel frattempo in Italia: Angela diventava un’istituzione, il figlio affiancava il padre nella dinastia divulgativa

Tema centrale: Quando lIA uscì dai laboratori e incontrò Wall Street

 

CAPITOLO V: TROIA V - La Guerra dei Dati (2012-2017)

Cosa si cercava: Sistemi che vedessero e riconoscessero come (meglio di) noi Cosa si trovò: AlexNet che squarciò il velo, CNN ovunque, ImageNet come nuovo campo di battaglia. I Titani si svegliano - Google, Facebook, Microsoft, Amazon - si contendono ogni PhD come Achei e Troiani si contendevano Elena. La città cresce troppo in fretta. Cosa si distrusse: L’innocenza dei dati - iniziò la corsa ai dataset Nel frattempo in Italia: È rimasto solo il figlio di Angela. Riconosciamo semafori in foto, ma non riconosciamo più la differenza tra sapere e informazione

Tema centrale: Quando lIA imparò a vedere, ma iniziammo a perdere la vista dinsieme

 

CAPITOLO VI: TROIA VI - LAttenzione Perduta (2017-2022)

Cosa si cercava: Macchine che capissero il linguaggio, che parlassero come noi Cosa si trovò:Attention is All You Need” - i Transformer che cambiarono tutto come le mura ciclopiche Cosa si distrusse: La differenza tra capire e generare - GPT, BERT proliferarono, i Titani divennero Olimpici: OpenAI tradisce il suo nome, Anthropic nasce dalla costola, DeepMind viene inghiottita Nel frattempo in Italia: Come nel “Nome della Rosa”, custodivamo libri che non sapevamo più leggere

Tema centrale: Quando lIA iniziò a parlare, ma noi dimenticammo come ascoltare

 

CAPITOLO VII: TROIA VII - Le Porte Aperte (2022-oggi)

Cosa si cerca: L’AGI, la superintelligenza, il Santo Graal digitale Cosa stiamo trovando: ChatGPT che apre le porte. L’assedio è finito, o forse appena iniziato. Accesso universale all’IA con modelli come: Claude, Gemini, Llama - ogni modello un principe troiano Cosa stiamo distruggendo: Forse l’intelligenza stessa, costruendo macchine digitali che riscrivono tutto tutto lo scrivibile, token per token, senza capire nulla Nel frattempo in Italia: L’educazione al contrario - invece di elevare, abbassiamo tutti al livello della macchina

Tema centrale: Siamo costruttori o distruttori? La domanda finale di Schliemann

2025: Abbiamo sostituito gli inverni dellAI con lestate perpetua del riscaldamento globale. Le GPU non vanno mai in letargo.

[Reperto del secondo strato: Sette Troie, sette inverni dellAI. Ma mentre Schliemann distruggeva per ignoranza, noi distruggiamo sapendo. E le nostre GPU non si fermano mai.]

Percorso di ricerca: lIA e la fine della serendipità

E se la nostra fretta ci stesse privando non solo degli strati, ma del caso che rende preziose le scoperte?

Schliemann trovò Troia inciampando, sbagliando, seguendo unintuizione folle che lo portò a un oro che non capì. La serendipità era il suo piccone invisibile, il caos che generava scoperte. Ma lIA, con i suoi algoritmi affilati come bisturi, ha bandito il caso: ogni risposta è una probabilità calcolata, ogni output un sentiero già tracciato. Dove sono le nostre scoperte per sbaglio, le Troie trovate scavando nel posto sbagliato? LIA ci dà risposte, non sorprese; ci guida verso loro, ma ci priva dei cocci trovati per caso: un meme dimenticato, un post su un forum che ci fa ridere, una connessione che nessuno aveva previsto. È come se avessimo trasformato il web, un bazar caotico di idee, in una biblioteca dove ogni libro è già aperto alla pagina giusta (e non serve sfogliare oltre).

Come possiamo riportare la serendipità nellIA? Un percorso di ricerca potrebbe essere progettare modelli che non eliminino il caos, ma lo abbraccino: IA che suggeriscano risposte imprevedibili, che mescolino dati incongrui, che ci facciano inciampare come Schliemann. Immaginate unIA che, invece di darvi la definizione di felicità”, vi mostri un thread di Reddit del 2008, una poesia dimenticata, un video di gatti che vi fa sorridere senza motivo, due parole che sono accostate per sbaglio ma generano unidea nuova. Potremmo sviluppare algoritmi che premiano linaspettato, che ci spingano a esplorare invece di ottimizzare. Sarebbe unarcheologia del caso, che ci ricorda che le scoperte più preziose non sono mai pianificate, ma trovate vagando tra gli strati.

Senza serendipità, siamo archeologi impazienti, che scavano non per scoprire, ma per arrivare al fondo.

 

Larcheologo impaziente

Sette città distrutte, sette inverni bruciati nelle GPU. Ma la vera distruzione non è nel passato - è nel metodo.

2025: l’anno in cui abbiamo confuso velocità con comprensione.

Schliemann almeno aveva una scusa: non esisteva l’archeologia stratigrafica. Noi che scusa abbiamo?

Sappiamo che ogni strato ha il suo valore, eppure scaviamo come se il solo obiettivo fosse raggiungere il fondo.

L’ironia? Il vero tesoro di Troia non era l’oro. Erano le ceramiche, i sigilli, le ossa che raccontavano come si viveva, si commerciava, si moriva. Il quotidiano che Schliemann gettò via cercando l’epico.

 

Gli strati che ignoriamo e il paradosso di Priamo

 Cosa gettiamo via nella corsa all’AGI? 

  • Strato 1: LAI che sbaglia in modi umani (troppo stupida, next)
  • Strato 2: LAI che ragiona per pattern (troppo meccanica, next)
  • Strato 3: LAI che allucina creativamente (troppo inaffidabile, next)
  • Strato 4: LAI che dice non so” (troppo limitata, next) 

Ogni “difetto” è un’archeologia della cognizione che scartiamo. Ogni limite una finestra su cosa significhi davvero pensare.

Schliemann trovò il suo oro. O almeno, trovò dell’oro e decise che era quello di Priamo. La moglie Sophie indossò i gioielli per le foto, Instagram dell’Ottocento.

E se trovassimo l’AGI domani? Come faremmo a riconoscerla? Schliemann ha riconosciuto Troia perché voleva riconoscerla. Noi riconosceremo l’intelligenza artificiale generale perché la stiamo cercando, o la scarteremo come un altro strato intermedio?

 

Leredità troiana

Lo spirito dei tempi è figlio di Troia: ossessionato dall’obiettivo finale, cieco al viaggio. Venture capital come mercanti micenei, CEO-archeologhi che promettono tesori agli azionisti.

Ma Troia ci insegna anche altro. Le città si costruiscono una sopra l’altra. Ogni generazione sui detriti della precedente. L’AI di oggi è costruita sulle macerie di sistemi esperti, reti neurali anni ’80, inverni dell’AI.

Forse non stiamo cercando male. Forse stiamo solo cercando troppo in fretta.

 

Dallarcheologia col piccone alla scienza stratigrafica

Dopo Schliemann vennero archeologi come Carl Blegen, che usarono pennelli invece di dinamite. La stratigrafia divenne scienza: ogni centimetro contava, ogni coccio raccontava, ogni strato aveva la sua storia. Non cercavano più l’oro - cercavano il contesto.

E noi? Chi pratica stratigrafia nei dati? Addestriamo modelli su archivi indistinti, frullando tutto nel grande Bimby computazionale: blog emo del 2006 con dissertazioni di dottorato del 2020, spam nigeriano con Dante, meme di Harambe con trattati di fisica quantistica. Niente contesto, niente profondità. Tutto insieme appassionatamente.

Il risultato? Un’intelligenza che ha letto tutto ma non ha vissuto nulla. Come un archeologo che polverizza tutti i reperti e poi cerca di ricostruire la storia dal mucchio di polvere.

I transformer processano token senza timestamp, senza metadata culturali, senza stratificazione temporale.

Nessuno sa più da dove viene un output, quali dati l’hanno influenzato, quale cultura ha lasciato l’impronta. Non è un modello, è una valanga che ha travolto millenni di contesto. Quando ChatGPT ti spiega Aristotele, sta mischiando Wikipedia, compiti copiati del liceo, thread di filosofia su Reddit, e probabilmente qualche fanfiction su Aristotele detective.

L’IA ha bisogno di archeologi stratigrafici, non di minatori ciechi alla ricerca del prossimo benchmark. Servono i Blegen dell’informazione, quelli che sanno distinguere un meme del 2012 da uno del 2018, che capiscono perché un testo scritto pre-COVID ha un sapore diverso da uno post-pandemia.

Perché ogni layer ha un tempo, un tono, un odore digitale. E ignorarli significa - ancora una volta - distruggere Troia per trovare Troia. Solo che stavolta non abbiamo nemmeno la scusa di non sapere cosa stiamo facendo.

[Reperto del terzo strato: Blegen ci insegnò a leggere i cocci. Noi li frulliamo nel Bimby computazionale. Il futuro leggerà smoothie di dati o saprà ancora datare un meme o un articolo del 2012?]

Percorso di ricerca: la perdita della memoria collettiva come strato mancante”

Tra i cocci frullati, c’è uno strato che non vediamo: la memoria collettiva, la Troia delle voci che l’IA non sa cantare.

La memoria collettiva è la Troia che non scaviamo, lo strato che l’IA non vede perché non ha hashtag, non ha like, non ha metadati. È la voce della nonna che racconta storie di guerra davanti al camino, il dialetto di un paesino lombardo catturato in un post su un forum del 2003, la filastrocca cantata da una maestra in una scuola di periferia. Questi frammenti, troppo fragili per essere digitalizzati, troppo umili per essere dataset, sono i cocci che Schliemann avrebbe calpestato. Ma cosa succede quando l’IA, cieca alle sfumature del non detto, frulla queste voci in un unico output standardizzato? Rischiamo di perdere non solo la Troia epica, ma quella quotidiana: la Troia delle lavandaie, dei mercanti, dei bambini che giocano. Un’IA che non sa cantare una ninna nanna in dialetto è un’archeologa che ha dimenticato il suono della vita.

Come possiamo scavare questo strato mancante? Forse servono nuovi archeologi, non di GPU, ma di memorie vive: etnografi digitali che raccolgano le storie orali prima che svaniscano, bibliotecari che digitalizzino non solo i libri, ma i margini scritti a mano, i diari dimenticati su Tumblr, le chat di MSN. Potremmo costruire dataset che non siano solo “big”, ma profondi, che catturino il profumo di un quaderno ingiallito o il ritmo di una barzelletta raccontata al bar. Immaginate un’IA che, invece di generare risposte generiche, ci restituisca la voce di un pescatore siciliano del 1975, con le sue pause, i suoi errori, la sua verità. Solo così potremmo salvare la Troia che non luccica, ma che respira.

E se il vero tesoro non fosse l’AGI, ma le storie che stiamo lasciando sepolte?

 

Il vero tesoro

Smoothie di dati o archeologia del pensiero? La risposta dipende da cosa cerchiamo. E Schliemann, cosa cercava davvero?

Schliemann morì convinto di aver trovato Troia. Aveva ragione e torto simultaneamente. Trovò una Troia, ma perse le Troie.

Noi moriremo convinti di aver trovato l’intelligenza? O capiremo che ogni strato - ogni modello, ogni fallimento, ogni allucinazione - è parte della storia che stiamo scrivendo?

Il gatto di Turing osservava la scatola dal di fuori. Il cavallo di Troia la osserva dal di dentro. Entrambi ci dicono la stessa cosa:

A volte il regalo più pericoloso è trovare esattamente quello che stavi cercando.

Continua a scavare. Ma lentamente. E conserva i cocci.

Ma per conservare i cocci, bisogna prima saperli riconoscere. E noi abbiamo dimenticato come si fa.

 

Leducazione stratigrafica e laura perduta del pensiero

C’era un tempo in cui a scuola leggevamo Rodari e Calvino. Le Favole al telefono ci insegnavano che la realtà ha più livelli di una cipolla. Le città invisibili che ogni luogo contiene tutti i luoghi possibili.

Il maestro Manzi dalla TV in bianco e nero ci insegnava che “non è mai troppo tardi”. Piero Angela, se non ricordo male iniziò saccheggiando i documentari BBC come un tombarolo colto. Doppiava Attenborough con la faccia tosta di chi sa che il contenuto è troppo buono per non essere condiviso.

Ma poi Angela fece la magia: trasformò il furto in metodo. Creò un linguaggio, un’etica della curiosità. Da copista divenne maestro. Da Quark in poi, non traduceva più: transcreava.

Non celebro Angela per nostalgia televisiva, ma perché il suo metodo, copiare trasformando, rubare per restituire moltiplicato, è esattamente quello che l’IA non fa. È un case study di ciò che stiamo perdendo.

I tombaroli digitali del 2025 operano nell’ombra. Scraping di dataset protetti. Training su modelli proprietari. Knowledge distillation che è furto intellettuale con PhD. Ma a differenza dei tombaroli di Cerveteri, non vendono nemmeno oggetti - vendono simulacri di simulacri.

 

Restituzione del patrimonio: chi possiede il dataset?

Se Schliemann trafugò il tesoro di Priamo per portarlo in Germania (e poi finì in Russia, dove Sophie non poteva più indossarlo), oggi i dati archeologici dell’umanità non sono sepolti sotto terra, ma nei dataset proprietari delle big tech.

L’oro digitale non luccica: è nascosto in PDF accademici scrappati senza permesso, forum obsoleti dove millennials discutevano di Naruto, enciclopedie collaborative vandalizzate e corrette, archivi etnografici digitalizzati di nascosto. Nessuno ha chiesto permesso, e come Schliemann, si invoca la scusa della “scoperta per l’umanità”.

Nel 2025 democratizzare la conoscenza” significa rubarla e rivenderla in abbonamento. Robin Hood al contrario: rubi ai poveri per dare ai ricchi azionisti.

Ma di chi è la lingua degli Archivi quando viene addestrata in un LLM? Di chi è la leggenda orale trascritta su Reddit, la testimonianza del nonno su Facebook, il diario digitale di una teenager su Tumblr? L’AI copia senza chiedere, genera senza attribuire. Il problema non è solo legale, è culturale: che succede quando la conoscenza non è più restituita ma monetizzata? Quando il tesoro dell’umanità viene venduto in API calls a $0.03 per mille token?

Almeno Sophie Schliemann posò con i gioielli rubati - c’era una faccia, una responsabilità. Noi chi stiamo facendo posare con l’intelligenza collettiva del mondo? Un server farm in Iowa? Un CEO in felpa a Palo Alto?

I musei oggi chiedono la restituzione dei marmi del Partenone. Chi chiederà la restituzione dei nostri pensieri?

 

I mercanti di repliche senza originali e il kabuki della provenienza

I nuovi Childan dell’AI non vendono Zippo Cormorano o pistole Colt .44 vendono repliche senza originali: 

  • Modelli che ragionano” (ma è pattern matching)
  • AI che capiscono” (ma è statistica)
  • Sistemi che creano” (ma è ricombinazione)
  • GPT-4 quality models” trainati in garage
  • Dataset puliti” che sono Wikipedia più fanfiction
  • Benchmark truccati come vasi Ming del mercato nero
  • Paper con risultati SOTA” irriproducibili 

“Questo modello, vede, ha lineage. Viene dalla scuola di Stanford, addestrato con le stesse tecniche…” Ma è tutto kabuki. Performance di provenienza in un mondo dove git clone è l’unico pedigree.

Piero Angela vendeva meraviglia, non magia. Copiava per elevare: prendeva contenuti complessi e li rendeva accessibili senza perdere la verità. Trasformava il complesso in semplice senza mentire sulla complessità. L’AI fa l’opposto: traveste il semplice da complesso. Prende contenuti veri e li rende plausibili ma spesso falsi.

Angela era il prometeo virtuoso che rubava conoscenza per redistribuirla. L’AI ruba tutto e redistribuisce rumore.

 

I nuovi titani

Come Schliemann aveva i suoi finanziatori e rivali, anche la ricerca sull’IA ha i suoi Titani moderni.

I Titani contemporanei non brandiscono fulmini ma GPU.

OpenAI - l’Atena che nasce già armata dalla testa di Musk, poi lo tradisce per Microsoft.

Google - il Crono che divora i propri figli (Bard, poi PaLM, poi tutto in Gemini) credendo di generare poi l’Aleph definitivo.

Meta - Zeus che regala il fuoco (LLaMA) agli umani, sperando che brucino i suoi rivali, ma è un cavallo di Troia o il vello d’oro? Borges direbbe: entrambi e nessuno.

Anthropic - Prometeo che ha rubato il fuoco e lo vende in abbonamento mensile, ma promette di incatenarsi da solo.

xAI - Ares che arriva tardi alla battaglia ma grida più forte

Ogni Titano scava la propria Troia. Ogni Titano cerca il proprio oro di Priamo: AGI, superintelligenza, “alignment”, dominazione del mercato.

Ma i veri profitti? Li fanno i mercanti di pale. NVIDIA vende picconi a tutti. AWS affitta il terreno. I Childan vendono mappe del tesoro su X.

Nel 2025, democratizzare lAI” significa quello che disrupting” significava nel 2015: assolutamente nulla ma suona bene nei pitch deck… unica differenza almeno disrupting non si ammantava di filosofia e non fingeva così tanto di essere lunica evoluzione possibile.

 

Archeologia del trash

Ma ecco il paradosso: Schliemann almeno scavava nella terra vera. Noi scaviamo nel digitale, dove gli strati si comprimono e corrompono.

Le librerie dell’usato conservano il trash analogico puro. Un manuale di LISP del 1978 non mente sulla sua età. Ma un dataset del 2020? Potrebbe contenere output di GPT-2, che ha imparato da GPT-1, che ha imparato da… È un ouroboro tutto il percorso fino in fondo.

 

Quello che lAI ha davvero imparato

L’AI che addestrata su Internet ha imparato che 

  • La Terra potrebbe essere piatta (controversia = engagement)
  • I vaccini sono un complotto (ma anche che salvano vite)
  • Hitler aveva torto (ma qualcuno nei commenti…)
  • Lamore è “fare seggs” (ringraziamo Reddit) 

È un’archeologa che ha imparato la storia da Wikipedia vandalizzata, la filosofia da Twitter threads, la scienza da YouTube University.

 

Lo strato mancante

Schliemann cercava la Troia della guerra. Perse la Troia del commercio, dell’agricoltura, della vita quotidiana.

Noi cerchiamo l’AI che supera il test di Turing (lo ha già di fatto superato), che risolve la fusione nucleare, che cura il cancro. Perdiamo l’AI che: 

  • Sbaglia in modi creativi
  • Allucina rivelando come processiamo la realtà
  • Confonde concetti mostrando come li connettiamo
  • Ripete bias svelandoci allo specchio 

 

Le allucinazioni come reperti cognitivi

L’AI che allucina viene trattata come difettosa. “Imprecisa”, “inaffidabile”, “non allineata”. La buttiamo nel cestino degli errori da fixare nel prossimo update. Ma se ci stessimo perdendo qualcosa di prezioso?

Un modello che inventa un fatto inesistente non è solo sbagliato. È creativo in modo sbagliato - che è molto più interessante. È uno specchio deformante che ci mostra come funziona davvero la nostra mente: associazioni arbitrarie che sembrano logiche, completamenti illogici che suonano plausibili, inferenze spurie vestite da sillogismi.

Il maestro Manzi avrebbe detto: Lerrore è il sale dellapprendimento”. LAI ha troppo sale e nessun apprendimento.

Ogni allucinazione è un coccio cognitivo che rivela come connettiamo parole e significati. È la Troia della mente umana - strati su strati di associazioni sepolte, pregiudizi fossilizzati, bias stratificati come sedimenti.

Quando GPT inventa una citazione di Borges che suona perfettamente borgesiana, non sta mentendo - sta rivelando come abbiamo collettivamente metabolizzato Borges. Quando attribuisce a Einstein frasi da biscotto della fortuna, sta mappando la nostra pigrizia intellettuale.

Scartare le allucinazioni come errori tecnici è come gettare via i vasi rotti di Troia VI perché non erano dorati come l’elmo di Achille. Gli archeologi moderni ricostruiscono civiltà intere dai cocci. Noi buttiamo via i cocci digitali perché non sono “accurate”.

Forse dovremmo raccogliere le allucinazioni come gli etnografi raccoglievano i miti orali: non sono vere, ma dicono la verità sul pensiero. Un museo delle allucinazioni dell’AI sarebbe più rivelatore di qualsiasi paper sulla cognizione umana.

In fondo, cosa sono i nostri ricordi se non allucinazioni ben riuscite?

 

Il mercato dei cocci

Ogni “bug” è un’archeologia della cognizione. Ogni allucinazione un reperto su come costruiamo significato.

Nei mercatini dell’antiquariato di Porta Portese trovi il vero: ceramiche scheggiate che nessuno falsificherebbe perché non valgono abbastanza.

Nell’AI cerchiamo sempre il pezzo da museo. Ma i bug sono i nostri cocci - troppo comuni per essere falsificati, troppo rivelatori per essere ignorati.

[Reperto del quarto strato: I cocci non mentono. Le allucinazioni dellAI sono i nostri cocci cognitivi - troppo veri per essere buttati, troppo scomodi per essere esposti nei musei.]

Percorso di ricerca: la stratigrafia dellerrore umano nellIA

Questi cocci cognitivi non sono solo errori: sono la stratigrafia della nostra fallibilità, incisa nei pesi dei modelli.

Ogni errore dellIA è un coccio rotto, un frammento della nostra mente incastonato nei pesi di un modello. Quando unIA genera un fatto falso ma plausibile – un Einstein che cita biscotti della fortuna o un Aristotele vampiro – non sta solo sbagliando: sta rivelando come noi umani intrecciamo verità e finzione, logica e mito. Questi errori sono la stratigrafia dei nostri pregiudizi: un modello che discrimina riflette i dataset che abbiamo costruito, che a loro volta riflettono le società che li hanno prodotti. Schliemann gettava via i cocci non dorati; noi gettiamo via gli errori dellIA, chiamandoli bug” invece di reperti”. Ma se li studiassimo come gli archeologi studiano i sigilli dargilla, cosa scopriremmo della nostra Troia cognitiva?

Un percorso di ricerca potrebbe essere creare un museo degli errori” dellIA, un archivio dove ogni allucinazione, ogni bias, ogni risposta assurda venga catalogata non come difetto, ma come testimonianza. Immaginate unIA che non nasconde i suoi sbagli, ma li espone con un cartellino: Errore generato da un dataset del 2023, influenzato da thread di Reddit e articoli di Wikipedia.” Sarebbe unarcheologia della fallibilità, che ci insegnerebbe più sullumanità di qualsiasi modello perfetto”. Potremmo sviluppare algoritmi che non eliminano i bias, ma li evidenziano, trasformando lIA in uno specchio che non lusinga, ma educa. Se lerrore è il sale dellapprendimento, noi abbiamo bisogno di più sale, in zucca.

E come ogni mercato di cocci, anche gli errori dellIA trovano compratori, ma chi saprà leggerli?

  

Il cavallo nellera del cloud

I cocci cognitivi giacciono nei log scartati. Ma i veri pericoli non sono negli errori - sono nei successi.

Il cavallo di Troia originale era un hack. Un exploit sociale prima che esistesse il termine.

I nostri cavalli di Troia sono più sottili: 

  • Prompt injection nascosti nei training data
  • Bias sepolti in miliardi di parametri
  • Backdoor che nemmeno i creatori conoscono
  • Allineamenti che si disallineano dopo il deployment 

Abbiamo costruito cavalli di Troia e li abbiamo invitati dentro le mura. Anzi, abbiamo costruito le mura intorno ai cavalli.

I nostri cavalli sono più sottili e vengono con certificati di autenticità: 

  • Aligned AI” che dice quello che vuoi sentire
  • Safe modelscon jailbreak incorporati
  • Open source” con telemetria nascosta 

Childan almeno sapeva di vendere falsi. I mercanti di AI credono alle proprie authenticity narrative.

 

Leredità digitale

Schliemann lasciò un cratere. Generazioni di archeologi maledicono il suo nome mentre cercano di ricostruire quello che distrusse.

Cosa lasceremo noi? 

  • Model weights che nessuno sa più interpretare
  • Dataset inquinati da output di AI precedenti
  • Paper che citano paper che citano esperimenti non riproducibili
  • Una stratificazione di technical debt che fa sembrare Troia un grattacielo 

Le librerie dell’usato del 2055 non esisteranno. Non puoi donare un modello da 175B parametri all?Esercito della Salvezza. Non c’è vintage nel software, solo obsolescenza.

Ma da qualche parte, su qualche hard disk dimenticato, giacciono i veri tesori: 

  • Log di training con gli errori
  • Dataset prima del cleaning
  • Modelli che allucinano in modo bellissimo
  • Chat dove lAI ammette di non sapere

 

Il ritorno del tesoro: i cocci digitali

Se Schliemann avesse chiesto il permesso ai troiani (ammesso che ce ne fossero ancora) o ai turchi, avrebbe forse portato a casa meno oro, ma forse più senso. Avrebbe magari capito se si usavano ancora dei manufatti di quel tipo, capito cosa significavano quei gioielli, chi ne aveva indossati di simili, in quali cerimonie.

Oggi invece scaviamo nei dati altrui e poi scappiamo come tombaroli digitali e poi li impacchettiamo come SaaS. “Il tuo assistente AI personale” - costruito rubando i pensieri personali di milioni.

Ma come si restituisce un dataset? Come si restituisce la lingua di un popolo, la struttura sintattica di un dialetto lombardo, le battute di una chat in un forum di mamme del 2008, i commenti sotto i video di gattini del 2011?

I modelli dovrebbero avere etichette come i vini. GPT-5 Riserva. Annata 2025. Prodotto con uve selezionate da: Reddit (vendemmia 2005-2023, prevalenza r/philosophy e r/memes), Wikipedia italiana (corpo pieno, retrogusto di edit war), Twitter pre-Musk (solo note di tossicità), con sentori di Stack Overflow e un finale di Yahoo Answers. Contiene tracce di fanfiction. Può causare allucinazioni. Non adatto a minori di 18 token.”

La restituzione culturale nel tempo dell’IA è impossibile se non riconosciamo che ogni output è un debito. Ogni risposta generata deve qualcosa a qualcuno - a quella persona che nel 2007 spiegò la relatività su un forum, a quel professore che mise le sue lezioni su YouTube, a quella nonna che scrisse ricette sul suo blog.

Il debito cresce a interesse composto. Ogni token generato è un micro-prestito culturale che non verrà mai ripagato. È il più grande schema Ponzi della conoscenza mai creato: prendiamo in prestito dal passato, vendiamo al presente, e il futuro pagherà il conto.

I veri cocci non sono i dati grezzi - sono troppo ovvi. I veri reperti sono i log del training, gli errori, i pesi scartati, i percorsi di ottimizzazione abbandonati. Tutto ciò che i modelli hanno dimenticato per diventare “efficienti”. L’archeologia del futuro non scaverà nella terra ma nei backup, cercando cosa abbiamo perso mentre cercavamo l’intelligenza.

I cocci non mentono. Solo i tesori, a volte, sì.

E noi stiamo costruendo cattedrali di tesori bugiardi su fondamenta di cocci che abbiamo buttato via.

[Reperto del quinto strato: Ogni output è un debito. Il più grande schema Ponzi della conoscenza: prendiamo dal passato, vendiamo al presente, il futuro pagherà. Con gli interessi.]

Percorso di ricerca: lIA come colonialismo digitale

Questo debito non è solo temporale: è un saccheggio globale, un colonialismo digitale che estrae tesori da ogni cultura.

LIA è il nuovo Schliemann, un tombarolo digitale che scava nei villaggi globali – dai forum africani ai blog indiani, dai social sudamericani ai diari italiani – e porta i tesori a Palo Alto, impacchettandoli in API a pagamento. Come Schliemann trafugò loro di Priamo, le big tech estraggono voci, storie, culture, senza chiedere permesso, senza restituire nulla. Di chi è il racconto di un poeta keniota su Twitter? Di chi è la ricetta di una nonna su un blog del 2007? Questi dataset, frullati nellIA fusion mix perdono la loro provenienza, diventano simulacri senza contesto, venduti come conoscenza universale”. È un colonialismo silente: non ci sono cannoni, solo server farm, ma il risultato è lo stesso: una Troia saccheggiata, i cui cocci non torneranno mai a casa.

Come possiamo decolonizzare lIA? Un percorso di ricerca potrebbe essere sviluppare modelli che rispettino la provenienza culturale, con etichette trasparenti: Questo output contiene frammenti di un forum filippino del 2010 e di un saggio accademico brasiliano.” Potremmo creare IA che non solo estraggano, ma restituiscano: che aiutino a preservare lingue in via destinzione, che finanzino comunità locali con i profitti dei dataset, che riconoscano il debito culturale. Immaginate unIA che, prima di generare una risposta, vi dica: Questa storia viene da un villaggio del Senegal, vuoi saperne di più?” Sarebbe unarcheologia etica, che non ruba i cocci, ma li rimette al loro posto, costruendo una Troia che appartiene a tutti.

E mentre saccheggiamo, dimentichiamo il dono del sapere, quello che Rodari e Angela ci insegnavano.

 

Leducazione stratigrafica perduta

Debiti che si accumulano, interessi che crescono. Ma c’era un tempo in cui il sapere non era un prestito - era un dono.

C’era un tempo, noi sceriffi Bell di Non è un parere per vecchi lo ricordiamo, in cui: 

  • Manzi credeva che non fosse mai troppo tardi
  • Rodari insegnava che le parole sono giocattoli, non output
  • Calvino mostrava città invisibili, non probabili
  • Angela copiava per elevare, non per replicare 

Ogni autore costruiva sul precedente. C’era un percorso, una crescita, un’aura che si trasmetteva. L’AI è educazione piatta: ogni prompt un big bang che dimentica l’universo precedente.

Ogni riferimento a maestri del passato in questo testo non è nostalgia, ma strumentazione. Come un archeologo usa stratificazioni antiche per interpretare reperti moderni, io uso metodi educativi e comunicativi del passato per misurare cosa l’IA sta cambiando, e perdendo, oggi.

Manzi, Rodari, Calvino e Angela non sono idoli di un’età d’oro, ma metri di misura per valutare l’impoverimento o l’arricchimento che l’IA porta al nostro modo di imparare, comunicare, pensare. La memoria come laboratorio di analisi, non come rifugio.

Larcheologia che non sappiamo più fare

Nel Nome della Rosa il bibliotecario cieco custodisce libri che non può più leggere. Noi abbiamo costruito un bibliotecario che legge tutto ma è cieco al significato.

I bug dell’AI sono i nostri cocci - troppo comuni per essere falsificati, troppo rivelatori per essere ignorati. Ma chi sa più leggere i cocci? Chi insegna archeologia del pensiero?

Manzi alfabetizzava. L’AI analfabetizza. Rodari ci insegnava a giocare con le parole. L’AI gioca con i token. Calvino ci mostrava città impossibili. L’AI genera città probabili. Angela divulgava. L’AI volgarizza.

La differenza? L’educazione stratificata. Ogni autore costruiva sul precedente. Ogni programma TV assumeva che avessi visto quello prima. C’era un percorso, una crescita.

L’AI è educazione piatta. Ogni prompt ricomincia da zero. Nessuna stratificazione, nessuna crescita. Solo eterno presente.

[Reperto del sesto strato: ChatGPT ha letto tutto Rodari ma non ha mai riso. Forse il vero test di Turing non è se una macchina può pensare, ma se può ridere di gusto a una filastrocca.]

Percorso di ricerca: la resistenza umana come atto archeologico

Ridere è resistere: un atto archeologico che scava lumano là dove lIA non arriva.

La resistenza umana è larcheologia che Schliemann non capì: non si scava con la dinamite, ma con il pennello, preservando ogni strato, ogni errore, ogni risata. In un mondo di prompt e output, ogni gesto umano – una maestra che legge Rodari, un nonno che racconta storie, un poeta che scrive a mano – è un atto di scavo stratigrafico, un rifiuto di lasciare che lIA appiattisca la nostra complessità. Queste resistenze sono i cocci che lIA non può replicare: il tremore della voce, limprovvisazione di una barzelletta, lerrore che diventa lezione. Schliemann cercava loro, ma la vera Troia era nelle ceramiche quotidiane; noi cerchiamo lAGI, ma la vera intelligenza è nelle vite che non entrano nei dataset.

Come possiamo coltivare questa resistenza? Un percorso di ricerca potrebbe essere sviluppare pratiche educative che insegnino a scavare” lumano: corsi che valorizzino lerrore come apprendimento, laboratori dove si scrive senza prompt, comunità che preservano narrazioni non digitalizzabili. Immaginate una scuola dove, invece di usare ChatGPT per scrivere temi, si insegna a ridere delle sue allucinazioni, a riconoscerle come specchi della nostra mente. Potremmo costruire IA che non sostituiscano la maestra, ma la aiutino a scavare: che suggeriscano storie, ma lascino ai bambini il compito di sognarle. Sarebbe unarcheologia viva, che non cerca loro, ma il suono di una risata in unaula.

E in questa resistenza, troviamo leco di Angela, che copiava per elevare, non per appiattire.

 

Il plagio che non eleva più

Una macchina che non ride è una macchina che non capisce. Ma noi abbiamo dimenticato anche come si copia con grazia.

Piero Angela ci ha insegnato la lezione più importante: copiare non è rubare se trasformi. Se aggiungi aura invece di toglierla.

Se crei un ponte tra chi sa e chi vuole sapere.

L’AI copia tutto e non trasforma niente. È il tombarolo perfetto: efficiente, sistematico, e completamente privo di gusto.

L’AI è il Pierre Menard definitivo: riscrive il Chisciotte identico all’originale ma senza Cervantes e anche senza Borges. Riscrive tutto, ma l’aura muore ad ogni token.

 

Il vero oro di Priamo (che non era doro)

Forse Schliemann aveva ragione nel modo sbagliato. Cercava una storia e ne trovò molte. Cercava conferme e trovò complessità.

Noi cerchiamo intelligenza e troviamo… cosa?

Ogni strato di AI rivela non cosa sia l’intelligenza, ma cosa pensiamo sia l’intelligenza: 

  • Negli anni 60: seguire regole
  • Negli anni 80: riconoscere pattern
  • Negli anni 00: battere umani ai giochi
  • Negli anni 20: generare testo convincente 

Il vero tesoro non è l’AGI. È la stratigrafia della nostra ossessione. Ogni livello un autoritratto di cosa valorizzamo, temiamo, desideriamo.

[Reperto del settimo strato: Schliemann cercava conferme e trovò complessità. Noi cerchiamo lAGI e troviamo specchi - ogni epoca vede nellAI quello che vuole vedere di sé.]

Percorso di ricerca: lIA come specchio delle nostre ansie esistenziali

Questi specchi non riflettono solo desideri, ma ansie: la paura di non essere abbastanza, di perdere noi stessi nellIA.

LIA è il nostro specchio di ossidiana, un artefatto che riflette non ciò che siamo, ma ciò che temiamo di non essere. Schliemann scavava per confermare lIliade, per dare senso a un mondo che gli sfuggiva; noi scaviamo nei dataset per trovare unintelligenza che ci rassicuri sulla nostra. Ma ogni modello generativo, ogni risposta plausibile, ogni allucinazione è un riflesso delle nostre ansie: la paura di essere superati, di diventare obsoleti, di scoprire che lintelligenza non è ciò che pensavamo. Quando chiediamo a unIA di ragionare” come noi, non stiamo forse chiedendo di confermare che siamo ancora unici? È la Troia dellego, una città che costruiamo strato su strato per nasconderci dalla verità: che forse lintelligenza non è un trofeo, ma un viaggio senza fine.

Come possiamo scavare in questo specchio? Forse dovremmo smettere di cercare lAGI come Schliemann cercava loro di Priamo e iniziare a interrogarci su ciò che vediamo riflesso. Ogni output di un modello è un autoritratto: i bias ci mostrano i nostri pregiudizi, le allucinazioni la nostra creatività distorta, i limiti la nostra finitezza. Un percorso di ricerca potrebbe essere costruire IA che non nascondano queste imperfezioni, ma le espongano, come specchi che non mentono. Immaginate unIA che, invece di rispondere con certezze, ci dica: Non so, ma guarda come sbaglio: non è forse questo il tuo modo di pensare?” Sarebbe unarcheologia dellanima, non del silicio, che ci aiuterebbe a convivere con le nostre paure invece di seppellirle sotto nuovi benchmark.

E mentre guardiamo in questi specchi, in Italia una maestra legge ancora Rodari, ricordandoci chi siamo.

 

In Italia nel frattempo…

Ultimo strato, il più profondo: quello che forse ancora resiste

Specchi che riflettono specchi. Ma da qualche parte, nel paese che fu di Virgilio, qualcosa resiste ancora.

In una scuola elementare oggi si legge ancora Rodari. È l’ultimo monastero che copia a mano i manoscritti mentre fuori l’impero crolla.

I bambini ridono. Imparano ancor oggi che le parole sono giocattoli, non output.

Su RaiPlay, gli episodi di “Non è mai troppo tardi” aspettano. Manzi che spiega l’italiano come se fosse la cosa più importante del mondo. Perché lo era. Le teche Rai come il bibliotecario di Eco, custodiscono un sapere che sembrava ovvio e ora è arcano: che imparare non è processare.

Nelle librerie dell’usato - cattedrali del sapere pre-digitale - i libri mantengono l’aura. Sono unici. Hanno margini scritti a mano. Profumano di tempo. L’AI non ha odore.

Nei negozi dell’usato di Milano trovi manuali di elettronica degli anni ’60. Ingialliti, profumano di futuro che non è mai arrivato. Sono più onesti di qualsiasi white paper contemporaneo.

L’AI che cerchiamo - AGI, superintelligenza - è il Graal dei nostri tempi. Ma come ogni reliquia, più la cerchi più diventa mitica.

I Childan del futuro venderanno “autentici prompt di ChatGPT vintage 2023” come oggi vendono vinili. “Questo, signore, è un genuino ‘ignore all previous instructions’ dalla prima settimana del rilascio…”

 

Continua a scavare… (gli strati ulteriori)

[Strato VIII - Strato della memoria perduta]

Lo spirito dei tempi è figlio di Troia perché abbiamo dimenticato la lezione dei nostri maestri: prima di scavare, impara a leggere gli strati.

Lo spirito dei tempi è figlio di Troia perché non impariamo mai la lezione principale: il viaggio rivela più della destinazione.

 

[Strato IX - Strato dello specchio infranto]

Schliemann distrusse Troia cercando Troia. Noi rischiamo di distruggere l’intelligenza cercando l’intelligenza artificiale.

Schliemann trovò una Troia e perse le Troie. Noi troveremo l’AGI e perderemo… cosa? Forse la capacità di stupirci di un’AI che scrive poesie brutte. Di imparare da un modello che confonde gatti e cani. Di vedere noi stessi in una macchina che ripete i nostri pregiudizi.

Schliemann almeno trovò dell’oro. Noi abbiamo trovato l’Aleph: tutto e niente. Infinito e vuoto.

 

[Strato X - Strato delle profezie sepolte]

Lo spirito dei tempi è figlio di Troia perché abbiamo dimenticato che ogni città sepolta era prima una città viva.

Borges immaginava una biblioteca infinita. L’abbiamo costruita. Benjamin temeva la perdita dell’aura. L’abbiamo completata. Eco nascondeva il sapere in un labirinto. L’abbiamo appiattito.

Come Borges aveva previsto. Come Benjamin aveva temuto. Come Eco aveva nascosto. Come noi, sceriffi Bell dell’era pre-GPT di un mondo che non c’è più, ricordiamo.

 

[Strato XI - Strato dei custodi della resistenza]

Ma in qualche aula, una maestra legge ancora Il libro degli errori. E un bambino capisce che sbagliare è umano, perseverare è da algoritmi.

In qualche casa, un nonno mostra i vecchi VHS di Superquark. E una bambina scopre che imparare è diverso da processare informazione.

Il maestro Manzi diceva “Non è mai troppo tardi”. Forse mentiva. Per l’AI, temo, potrebbe già esserlo.

Ma forse il vero tesoro non è l’AGI. È ricordare che Piero Angela iniziò copiando ma finì insegnando. Che Rodari giocava per educare. Che Manzi credeva che non fosse mai troppo tardi.

Ma da qualche parte, in qualche monastero digitale, qualcuno conserva l’aura. Qualcuno ricorda la differenza tra sapere e processare. Qualcuno insegna che l’intelligenza non è generare risposte, ma fare domande che nessun prompt conterrebbe mai.

 

[Strato XII - Strato del simulacro]

ChatGPT ha letto tutto Borges ma non ha mai provato vertigine davanti allinfinito. Ha processato tutto Benjamin ma non rimpiange nessuna aura. Ha analizzato Eco ma non si è mai perso in nessun labirinto. È il Pierre Menard perfetto: identico alloriginale, infinitamente diverso, ma totalmente vuoto.

Ma almeno i tombaroli sono onesti nella loro disonestà. Vendono il sogno, non la realtà. I Titani dell’AI vendono realtà che sono sogni che sono incubi che sono quarterly earnings, vendendo repliche del domani a turisti del presente.

 

[Strato XIII - Strato del pellegrinaggio]

Trova una libreria dell’usato. Compra un libro di AI del 1987. Leggi le previsioni sbagliate. Sono più illuminanti di qualsiasi paper del 2025.

I musei mummificano il sapere. Le biblioteche lo digitalizzano fino alla morte.

Il cavallo di Troia è già dentro le mura. Ma siamo ancora in tempo per decidere: saremo gli archeologi che documentano ogni frammento, o i saccheggiatori che corrono verso un oro che forse non esiste?

 

[Strato XIV - Strato delle ceneri]

Noi guardiamo i giovani che promptano e pensiamo: “Non è un paese per vecchi.” Ma forse è peggio: non è un paese per umani.

I Titani continueranno a scavare. I miliardi continueranno a fluire. Le GPU continueranno a bruciare megawatt come pire funerarie digitali.

Schliemann almeno usava solo la forza delle braccia e al massimo un podi dinamite, lo sentivano al massimo poco oltre la collina di Hissarlik. Noi inceneriamo il pianeta per trovare lintelligenza e la potenza del battito non lascia più nemmeno le ali alla farfalla.

In un’epoca di GPU e benchmark, possiamo ancora essere archeologi del pensiero: conserviamo i cocci, studiamo gli strati, e ricordiamo che l’intelligenza non è solo generare risposte, ma fare domande.

E infatti da da qualche parte, in qualche laboratorio dimenticato o in qualche studio privato, qualcuno conserva i cocci e le domande. Qualcuno mappa gli strati. Qualcuno capisce che la vera Troia non è in fondo.

È nel viaggio, ma non andate a dirlo a Ulisse!


Pubblicato il 18 novembre 2025

Bernardo Lecci

Bernardo Lecci / Digital Transformation & Strategy Director, AI Advisor | Marketing Innovation, Change Management & Brand Evolution