Go down

l saggio propone una genealogia della cosiddetta token economy dei grandi modelli linguistici, mostrando come il concetto contemporaneo di unità minima di elaborazione e fatturazione linguistica discenda, a distanza di tre millenni, dalla logica economica dell'obolòs greco arcaico, lo spiedo di ferro impiegato come unità di peso e scambio prima dell'invenzione della moneta coniata.

L'argomentazione si articola in cinque tempi. Una ricostruzione dell'ars memoriae occidentale, da Simonide di Ceo fino a Paolo Rossi, serve a collocare le attuali architetture di memoria artificiale nella lunga tradizione delle mnemotecniche.

Un'analisi etimologica della catena obolo-dracma-talento fornisce la metafora-ponte per leggere il token come spiedo digitale. Una distinzione fra i tre strati della token economy, tecnico, economico e comportamentale, mette in luce la continuità di funzione fra il gettone skinneriano di Ayllon e Azrin e il token contemporaneo. Un confronto fra il palazzo mnemonico della tradizione occidentale e il basho della Scuola di Kyōto rivela la scelta implicita dei progettisti dei sistemi di memoria artificiale. Una chiusa restituisce la questione al territorio del sapere organizzativo.


Il casello cognitivo

Ogni conversazione con un modello linguistico di grandi dimensioni si apre, senza che il suo interlocutore umano ne abbia coscienza, con un gesto antico: il pagamento di un pedaggio. Prima che la macchina componga una sola parola di risposta, gli operatori del sistema che la ospitano hanno già contato, pesato, fatturato la porzione di linguaggio ricevuta in ingresso. La macchina produrrà poi il proprio testo, gli stessi operatori lo conteranno di nuovo, lo peseranno di nuovo, e al termine della sessione la traccia di quello scambio sarà stata cancellata, poiché i progettisti dei modelli linguistici li hanno concepiti, per ragioni architetturali deliberate, privi di facoltà di ricordo. Quando lo stesso utente apre una nuova conversazione la mattina successiva, nessuna traccia dello scambio precedente è disponibile alla macchina.

Ciò che l'industria vende con il nome poco epico di token economy è, a tutti gli effetti, un casello autostradale cognitivo

Questa amnesia strutturale, lungi dal costituire un difetto destinato a una futura soluzione tecnica, è il principio stesso su cui poggia l'economia del settore. Ciò che l'industria vende con il nome poco epico di token economy è, a tutti gli effetti, un casello autostradale cognitivo: ogni pensiero che l'utente desidera far transitare fra sé e la macchina paga un dazio, misurato in unità minime di linguaggio denominate token. Ogni ricordo che l'utente vuole conservare fra una sessione e l'altra richiede un supplemento di pedaggio, poiché va ricaricato manualmente all'ingresso della conversazione successiva. La scarsità di memoria, che l'osservatore distratto potrebbe scambiare per un limite tecnico, è il motore economico dell'intero comparto.

Propongo in queste pagine una tesi apparentemente stravagante: la token economy contemporanea discende, come ultima epifania, da una genealogia lunghissima che affonda le proprie radici in uno spiedo di ferro della Grecia arcaica, attraversa le arti della memoria rinascimentali, tocca la cibernetica sovietica di Tartu e la filosofia giapponese del luogo, fino ad approdare, travestita da fattura mensile, nei datacenter dell'Oregon. Ripercorrerne i passaggi permette di riconoscere le odierne architetture di memoria artificiale per ciò che sono: l'ennesima manifestazione di un problema antichissimo. Chi stabilisce il peso di ciò che può essere ricordato, e a quale prezzo?

Breve genealogia dell'ars memoriae

La leggenda fondativa della mnemotecnica occidentale ha una data e un protagonista. Cicerone la racconta nel De oratore, libro secondo, capitoli LXXXVI-LXXXVIII. Il poeta Simonide di Ceo, unico sopravvissuto al crollo della sala del banchetto di Scopa a Tessaglia, riconosce i corpi sfigurati degli altri commensali ricordando la posizione che ciascuno occupava a tavola. Da quell'episodio, trasmesso prima oralmente e poi codificato nella Rhetorica ad Herennium del primo secolo avanti Cristo, deriva il metodo dei loci, la tecnica con cui oratori, predicatori, mercanti rinascimentali e progettisti di teatri della memoria ancoravano contenuti astratti a luoghi fisici mentali, stanze, colonne, finestre, statue.

Paolo Rossi ha mostrato, nel suo fondamentale Clavis universalis. Arti della memoria e logica combinatoria da Lullo a Leibniz (Rossi 2000), come le arti della memoria rinascimentali costituiscano una protoscienza della combinatoria, un tentativo serio di progettare macchine concettuali capaci di ordinare e ricombinare il sapere. Raimondo Lullo, Giulio Camillo con il suo teatro della memoria, Giordano Bruno, Athanasius Kircher, Leibniz, hanno edificato sistemi che nella nostra nomenclatura chiameremmo database semantici, architetture di metadati, ontologie combinatorie. Quando Rossi ritorna sul tema in Il passato, la memoria, l'oblio (Rossi 2001), lo fa per ricordare una verità elementare, cioè che ogni epoca ha costruito supporti esterni alla memoria biologica, tavolette di cera, codici miniati, schedari notarili, archivi, database relazionali, indici di embedding, e che in ogni supporto i progettisti hanno inscritto regole di accesso, criteri di rilevanza, costi.

Conviene a questo punto introdurre una voce meno battuta sul mercato editoriale italiano, quella di Yuri Lotman, fondatore della Scuola semiotica di Tartu, in Estonia. Lotman ha dedicato pagine decisive alla memoria come dispositivo costitutivo della cultura, definendola la «facoltà che posseggono determinati sistemi di conservare e accumulare informazione» (Lotman 1985, p. 58). Per il semiologo estone, la cultura coincide con un meccanismo di memoria articolato in tre funzioni: la conservazione dei segni, la loro circolazione, la produzione di segni nuovi. Ciò che distingue il suo approccio dalle mnemotecniche classiche è la persuasione, propria di Lotman, secondo cui nella memoria sempre si manifesta un campo di forze, dove alcuni segni occupano la posizione centrale mentre altri restano in periferia, pronti a essere riattivati o cancellati. Questa prospettiva, elaborata nella Tartu sovietica a ridosso della cibernetica di Norbert Wiener, è il presupposto che i progettisti della token economy contemporanea adottano senza dichiararlo: nella memoria artificiale sono selezionati, pesati, gerarchizzati e fatturati i segni dell'utente.

Il concetto lotmaniano che più interessa il nostro ragionamento è quello di semiosfera, lo spazio semiotico che contiene e rende possibili le singole operazioni di significazione. Lotman costruisce il concetto per analogia con la biosfera di Vladimir Ivanovič Vernadskij, biogeochimico russo degli anni venti del Novecento, secondo cui le condensazioni della vita sulla Terra compongono un tessuto unitario, dove nessun organismo può esistere isolato dagli altri (Vernadskij 1999). Allo stesso modo, nella semiosfera i segni risultano vivi per il fatto stesso di essere tenuti insieme, in tensione reciproca. Quando i progettisti dei sistemi di memoria artificiale sostituiscono la semiosfera con un archivio di token isolati, ciascuno valutato per peso in byte e contato per fatturazione, compiono l'equivalente semiotico del prelievo di un organismo dal proprio ecosistema per pesarlo in laboratorio: lo si conserva, certo, ma lo si uccide. Negli embedding vettoriali viene conservata la forma del segno, mentre la sua ecologia va smarrita.

La stessa intuizione, vale la pena annotarlo, attraversa il pensiero di Mikhail Bakhtin, altro gigante della tradizione novecentesca russa, che nella sua teoria del cronotopo aveva mostrato come il tempo e lo spazio della narrazione risultino inseparabili dalla memoria collettiva in cui sono organizzati (Bachtin 1979). Per Bakhtin, ogni enunciato porta con sé la traccia di tutti gli enunciati precedenti sul medesimo oggetto, e parlare significa sempre entrare in un coro già in corso, prendere posizione in una conversazione iniziata da altri. Il pensatore russo chiamava questa condizione dialogismo, e la considerava la forma propria del linguaggio umano. Nei modelli linguistici contemporanei, addestrati dai loro progettisti a prevedere il token successivo in una sequenza, il dialogismo bachtiniano viene tecnicamente simulato, di fatto sterilizzato. Ogni risposta prodotta dal modello è la ripetizione statistica di configurazioni già registrate dalla piattaforma, senza presa di posizione, senza riconoscimento del coro in cui la risposta si colloca. Bakhtin avrebbe chiamato questo regime monologismo mascherato, un simulacro di dialogo in cui la piattaforma, attraverso il modello, risponde soltanto a se stessa.

Tartu e la scuola bachtiniana, ciascuna per proprio conto, avevano compreso che la memoria culturale possiede un'architettura economica prima ancora che letteraria. Una terza voce russa, quella di Aleksandr Lurija, psicologo sovietico allievo di Lev Semënovič Vygotskij, aveva mostrato negli anni venti del Novecento come gli strumenti culturali modifichino le strutture cognitive di chi li adopera (Lurija 1976). Contadini analfabeti dell'Uzbekistan e operai alfabetizzati della stessa regione, posti davanti agli stessi problemi di classificazione logica, producevano risposte radicalmente diverse, non per differenza di intelligenza ma per differenza dell'ambiente culturale che abitavano. La lezione di Lurija vale per la token economy più di quanto si creda. L'utente abituato a pagare pedaggio per ogni pensiero elaborato sviluppa, a lungo andare, abitudini cognitive nuove, che Vygotskij avrebbe chiamato funzioni psichiche superiori storicamente mediate. L'utente adatta il proprio pensiero allo strumento, come l'artigiano adatta la propria mano all'attrezzo.

L'obolo, la dracma, il token

Vale la pena soffermarsi, anche per chi non coltiva la numismatica, sull'etimologia di una parola che attraversa per intero la storia del pensiero economico occidentale. Obolòs in greco antico significa letteralmente «spiedo di ferro», dalla radice obelos, la medesima che ritroviamo nell'obelisco e nel segno tipografico a forma di pugnale usato per contrassegnare voci obsolete nei dizionari. Nella Grecia arcaica, attorno all'undicesimo secolo avanti Cristo, prima dell'invenzione della moneta coniata, lo spiedo di ferro veniva impiegato come unità di scambio. Era l'arnese con cui nell'agorà ateniese i funzionari addetti alle misurazioni ufficiali ritiravano la propria razione di carne, pesata pubblicamente in piazza. Lo spiedo valeva all'incirca settantadue centesimi di grammo e costituiva l'unità elementare dell'economia. Sei spiedi erano quanti un uomo riusciva a stringere in una mano, e quella «manciata», in greco drattomai, ha dato il nome alla dracma, la moneta d'argento di circa quattro grammi e trenta che per oltre un millennio ha costituito l'unità valutaria del Mediterraneo orientale. Seimila dracme componevano il talento attico, ventisei chili di argento, misura di peso adoperata dai mercanti sia per le merci sia per i metalli preziosi, raramente coniata in moneta effettiva. Nell'economia antica troviamo dunque una catena continua, l'oggetto materiale (lo spiedo), la sua aggregazione naturale (la manciata), la sua astrazione ponderale (il talento), l'autorità che sigillava il tutto coniando monete.

È in questa catena che dobbiamo collocare il token dei modelli linguistici. Anche il token, pur nella sua apparente astrattezza, affonda le proprie radici in una materialità che viene costantemente dimenticata. Il token è, in prima istanza, un'unità tecnica, un frammento di testo prodotto dall'operazione di tokenizzazione, un sub-word di lunghezza variabile, qualcosa di intermedio fra la singola lettera e la parola intera. Il termine inglese token proviene dall'antico inglese tācen, «segno, emblema, contrassegno», e conserva questa ambivalenza: vale insieme come segno tangibile e come promessa di valore. L'analogia con l'obolo greco si fa stringente non appena osserviamo che nel token, esattamente come nello spiedo dell'agorà, i frammenti di linguaggio vengono infilzati per essere collocati sulla bilancia. Ogni sostantivo, ogni congiunzione, ogni suffisso viene trafitto dalla procedura di misurazione del tokenizer, quantificato in byte, pesato sulla stadera digitale, e solo allora immesso nel circuito.

L'azzardo iperbolico risulta fertile: nel datacenter della California possiamo riconoscere una nuova agorà ateniese, salvo il fatto che i funzionari incaricati della misurazione sono oggi algoritmi e lo spiedo è diventato un vettore di cinquecentododici dimensioni. Il pedaggio del casello cognitivo lo calcolano i progettisti della piattaforma in frazioni di centesimo per mille token, e ogni conversazione viene fatturata al peso, così come nell'Atene del quinto secolo la carne veniva pagata agli addetti per mezzo dello spiedo di metallo. Quando Caronte, nella credenza popolare greca, pretendeva dai defunti un obolo sotto la lingua per traghettarli oltre l'Acheronte, applicava ante litteram la regola che oggi i progettisti dei modelli linguistici hanno inscritto nei loro sistemi: senza token, nessuna traversata.

Giova ricordare, per evitare derive astratte, che la comparsa della moneta coniata nel regno di Lidia, all'inizio del sesto secolo avanti Cristo, costituì una rivoluzione epistemologica oltre che economica. Con il sigillo impresso sul metallo, i re lidi sostituivano la pesatura caso per caso, e la garanzia del valore veniva consegnata all'autorità pubblica. Karl Polanyi, in La grande trasformazione (Polanyi 2010), aveva segnalato come in ogni passaggio di tale natura avvenga uno spostamento del potere cognitivo, poiché chi controlla l'unità di misura controlla anche il pensiero che su quell'unità si fonda. Nella token economy i progettisti replicano oggi il medesimo spostamento, sottraendo all'utente la possibilità di pesare da sé ciò che scrive, consegnandola a un tokenizer la cui logica interna rimane opaca.

I tre strati della token economy

Sgombrato il campo dall'ingenuità etimologica, possiamo ora affrontare il concetto composito di token economy distinguendone i tre strati che abitualmente vengono confusi.

Il primo strato è tecnico. Il token come unità di elaborazione corrisponde al segmento di testo che i progettisti del modello hanno definito come atomo significativo. A seconda del tokenizer impiegato, la parola italiana «ricordare» potrebbe essere scomposta in «ricor» e «dare», oppure in tre segmenti, oppure in quattro. Questa frammentazione incide sul contenuto, poiché nei calcoli del modello si procede per configurazioni statistiche costruite sulla sequenza di token, ossia sulla sequenza degli atomi linguistici riconosciuti dal tokenizer. Ne deriva una conseguenza controintuitiva. Le lingue con morfologia ricca, come l'italiano o il finlandese, consumano in media più token della stessa frase formulata in inglese, e quindi comportano un costo letteralmente superiore. La standardizzazione dei pesi nell'epoca attica, che per ragioni storiche favorì lo statere ateniese rispetto a quello eginetico, trova oggi il proprio corrispettivo nel predominio dell'inglese come lingua su cui i progettisti hanno addestrato i tokenizer. L'osservazione acquista peso politico quando ricordiamo, con Tullio De Mauro (De Mauro 1963), come in ogni standardizzazione linguistica vengano prodotte esclusioni e gerarchie, e quanto più tecnica essa appare tanto più si rivela politica.

Il secondo strato è economico. Il token come unità di prezzo corrisponde alla frazione di centesimo che il fornitore del modello fattura al cliente per ciascun token elaborato, in ingresso e in uscita. Qui l'origine artificiale della scarsità diventa evidente all'analisi: il prezzo del token è un'invenzione dell'operatore di piattaforma, giustificata da costi di calcolo reali, amplificata da logiche di mercato. Shoshana Zuboff ha descritto, in un quadro più ampio, il «capitalismo della sorveglianza» (Zuboff 2019) come regime economico in cui le piattaforme estraggono valore dai dati comportamentali degli utenti. Nella token economy troviamo una specializzazione rovesciata di quel regime, poiché l'utente paga in prima persona per vedere elaborate le proprie parole. L'asimmetria del rapporto, già segnalata da Lotman nelle dinamiche fra centro e periferia della semiosfera (Lotman 1985, pp. 121-135), si ripresenta intatta nel legame fra fornitore di modelli e utente finale.

Il terzo strato è comportamentale, e riguarda un aspetto raramente considerato nel dibattito corrente. Nel 1968 due psicologi americani di formazione skinneriana, Teodoro Ayllon e Nathan Azrin, diedero alle stampe un volume destinato a segnare la psicologia clinica, The Token Economy. A Motivational System for Therapy and Rehabilitation (Ayllon, Azrin 1968). Nel sistema da loro proposto, sperimentato in strutture psichiatriche, i gettoni fisici venivano impiegati come rinforzi operanti: il paziente che eseguiva un comportamento desiderato riceveva un token, e accumulando token poteva accedere a beni o privilegi. Il nome è rimasto nel lessico tecnico della psicologia comportamentale. L'omonimia con la token economy dei modelli linguistici merita di essere interrogata, poiché rivela una continuità di funzione. In entrambi i casi il token funziona come unità minima di scambio, attraverso la quale i progettisti del sistema orientano i comportamenti. Nel caso di Ayllon e Azrin, il comportamento del paziente. Nel caso attuale, il comportamento dell'utente, il quale, per ragioni di costo, apprende a scrivere prompt più brevi, a formulare richieste in inglese, a evitare domande la cui risposta richiederebbe troppi token. Il gettone skinneriano e il token contemporaneo condividono il medesimo padre concettuale, poiché in entrambi i casi i progettisti modellano la condotta attraverso un'economia di piccole unità scarse.

Entra in scena, a questo punto, l'autore più acuto fra quelli che hanno trattato il problema della memoria elettronica prima ancora che diventasse un tema popolare, Vilém Flusser, filosofo praghese naturalizzato brasiliano e poi francese, attivo fra gli anni sessanta e i primi anni novanta del Novecento. In un breve saggio apparso su «Leonardo» nel 1990, On Memory (Electronic or Otherwise) (Flusser 1990), Flusser osservava come nella memoria elettronica quella biologica venga ridefinita in termini di funzione di un apparato, termine tecnico flusseriano che designa un dispositivo programmato secondo logiche proprie, spesso opache agli stessi operatori che lo manovrano. Nell'apparato sono iscritti dai suoi progettisti i criteri di rilevanza, che determinano cosa viene conservato e cosa viene scartato, e l'utente risulta ridotto al ruolo di funzionario che esegue il programma senza averlo scritto. Trent'anni prima che la locuzione token economydiventasse d'uso corrente, Flusser ne aveva già descritto l'architettura profonda: chi paga il pedaggio si limita a eseguire le regole del casello, senza determinarle.

Palazzo contro campo, due architetture del ricordo

La parte finale del ragionamento chiama in causa un'opposizione filosofica che vale la pena portare alla luce, poiché in essa i progettisti dei sistemi di memoria artificiale compiono scelte che raramente vengono interrogate. Da un lato troviamo la tradizione del palazzo mnemonico, nella quale, da Simonide a Giulio Camillo, da Matteo Ricci nella Pechino dei Ming fino al recente MemPalace, la memoria viene concepita come contenitore misurabile, un edificio con stanze, corridoi, cassetti, finestre, dove ogni contenuto trova il proprio posto. Dall'altro lato esiste una tradizione meno frequentata dalle nostre antologie, altrettanto rigorosa, quella che Nishida Kitarō, fondatore della Scuola di Kyōto e padre indiscusso della filosofia giapponese moderna, ha sviluppato attorno al concetto di basho, «luogo». In un saggio del 1927 oggi disponibile in traduzione italiana (Nishida 2012), Nishida propone di pensare la coscienza, e dunque la memoria, come luogo di nulla assoluto, un campo di forze in cui ogni fenomeno trova ospitalità senza mai coincidere con un contenitore materiale. Il luogo nishidiano è privo di pareti, di stipiti, di cassetti, vale come la chōra platonica reinterpretata attraverso la pratica zen, come ciò che «riceve per dare luogo», secondo la formula che Jacques Derrida avrebbe utilizzato, commentando a sua volta quel concetto, nel 1987.

L'opposizione è teoricamente rilevante perché in essa troviamo una scelta implicita dei progettisti dei sistemi di memoria artificiale. Tutti, nessuno escluso, scelgono il palazzo a scapito del campo. Nei database vettoriali i progettisti indicizzano frammenti di testo in spazi metrici con coordinate misurabili. Nelle architetture gerarchiche del tipo di MemPalace, progetto open source che nell'aprile del 2026 ha raccolto oltre ventidue mila stelle su GitHub rilanciando deliberatamente il metodo dei loci, i progettisti suddividono la memoria in ali, stanze, corridoi, cassetti, replicando con fedeltà notarile la metafora architettonica della Rhetorica ad Herennium. Nessun sistema commerciale, oggi, propone di pensare la memoria artificiale come basho, come campo non oggettivabile, come relazione dinamica fra segni piuttosto che come magazzino di frammenti. Le ragioni di tale coro risultano trasparenti: il palazzo può essere fatturato per metri quadri, mentre il campo sfugge alla misurazione e dunque alla token economy. Nishida avrebbe riconosciuto in questa scelta una forma di impoverimento filosofico, o forse la chiamata inevitabile che l'economia esercita sulla metafisica, secondo cui gli uomini pensano ciò che possono vendere.

Vale la pena notare, senza deriva orientalista, che dai pensatori giapponesi del Novecento sono venuti più di un contributo alla questione. Watsuji Tetsurō, allievo di Nishida, aveva elaborato nel suo Fūdo del 1935 (Watsuji 2011) una teoria dell'ambiente culturale che anticipava di decenni le riflessioni europee sull'ecologia dei saperi, mostrando come il luogo abitato plasmi le strutture cognitive di chi lo abita. Il termine giapponese fūdo, composto dai caratteri di «vento» e «terra», designa la combinazione fra clima, paesaggio e cultura che rende un popolo quello che è. Watsuji aveva viaggiato in Europa negli anni venti e aveva osservato come nella filosofia heideggeriana, con il suo accento sulla temporalità, la spazialità dell'esistenza umana venisse trascurata. Il correttivo watsujiano consiste nel restituire al luogo il peso che gli spetta, nel riconoscere che gli uomini pensano dentro un fūdo, e che nel fūdo il loro pensiero viene a sua volta plasmato. Con l'applicazione della token economy al lavoro intellettuale organizzativo, gli operatori di piattaforma introducono un nuovo fūdo, un nuovo clima cognitivo dove ogni pensiero paga pedaggio. Chi abita quel clima, a lungo andare, finisce per pensare in modo diverso.

L'intuizione watsujiana trova un precedente antico nella tradizione buddista giapponese, segnatamente in Kūkai, il monaco del nono secolo fondatore della scuola Shingon, di cui Aldo Tollini ha curato una traduzione dall'originale nell'Antologia del buddhismo giapponese per Einaudi (Tollini 2009). Negli scritti di Kūkai troviamo la teorizzazione di una risonanza fra corpo, parola e mente del praticante con l'universo che lo contiene, e una forma di sapere che abita lo spazio di relazione fra il monaco e il cosmo, anziché risiedere nella testa del ricordante. La pratica meditativa, per Kūkai, consiste precisamente nel farsi luogo di quella risonanza. Ottomila chilometri di distanza e dodici secoli di differenza separano il monaco Shingon dal semiologo di Tartu, eppure in entrambi troviamo la medesima comprensione: la memoria appartiene più al campo che al soggetto. Quando oggi i progettisti di sistemi di memoria artificiale collocano il ricordo dentro un database vettoriale, attribuendo a ogni frammento una coordinata fissa, compiono una scelta che Kūkai avrebbe giudicato filosoficamente povera, né buddista né platonica, puramente contabile.

Nelle tecnologie occidentali di gestione del sapere troviamo un modello spaziale implicito, il contenitore, ereditato dalla metafisica aristotelica del topos. Nel basho giapponese, al contrario, troviamo un modello di memoria come relazione attiva, come campo di tensioni che si ridefinisce a ogni operazione. Nelle architetture dei grandi modelli linguistici occidentali i progettisti ereditano inconsapevolmente la metafisica aristotelica, e con essa tutti i suoi limiti. Il token è un oggetto collocato in un luogo, ossia in un punto dello spazio vettoriale, e nell'operazione del modello troviamo il recupero di quel luogo. In una memoria pensata come basho i progettisti non recupererebbero luoghi ma ricostituirebbero campi di relazioni a ogni interrogazione. Nessuno, oggi, costruisce memorie di questo tipo.

Su questo tema si apre un fronte diretto con il territorio del sapere organizzativo. Quando un'impresa adotta un sistema di memoria per i propri agenti conversazionali, i suoi dirigenti compiono una scelta architetturale raramente interrogata. Permettono davvero ai processi aziendali di ricordare, oppure si limitano a indicizzare ciò che è già stato scritto, trasformando il sapere latente in sapere fatturabile? La differenza è sostanziale. In una memoria come palazzo vengono conservati frammenti che poi gli utenti richiamano su domanda. In una memoria come campo sarebbe possibile la generazione di nessi nuovi fra segni distanti. I dirigenti delle organizzazioni che investono oggi in sistemi di memoria per i propri agenti acquistano, senza esserne sempre coscienti, la prima opzione, e per ogni richiamo pagano il pedaggio corrispondente. Francesco Varanini, in pagine recenti dedicate al rapporto fra uomo e macchina nelle organizzazioni contemporanee (Varanini 2020), ha segnalato proprio questo rischio, cioè che dalla delega tecnica al ricordo venga prodotta una forma di oblio organizzativo più profondo, poiché opaco anche a chi lo subisce.

Chiusa, la manciata e il nulla

Torniamo dunque al casello autostradale da cui siamo partiti. Ora sappiamo che con ogni pedaggio del sistema gli utenti retribuiscono, in ultima istanza, il diritto di impiegare uno spiedo di ferro ateniese per infilzare frammenti di linguaggio e depositarli sulla bilancia di un funzionario algoritmico. Sappiamo che il gettone skinneriano e il token contemporaneo condividono il medesimo padre concettuale. Sappiamo che nell'architettura di ciò che chiamiamo memoria artificiale troviamo una discendenza diretta dalla Rhetorica ad Herennium, salvo il fatto che le colonne del palazzo mnemonico sono oggi tensori e le statue sono metadati.

Resta una questione aperta, e genuinamente aperta, da portare con sé chiudendo il saggio. Se l'intera genealogia della token economy può essere ricondotta alla tradizione del palazzo, esiste una via diversa? Il basho di Nishida suggerisce che la memoria potrebbe essere concepita come campo, come relazione dinamica, come luogo senza pareti. Una simile memoria sfuggirebbe alla fatturazione, e probabilmente per questa ragione nessun operatore di piattaforma la propone. Eppure la domanda, per chiunque lavori con il sapere organizzativo fuori dalle logiche di pedaggio, merita di essere posta: possiamo ricordare altrimenti, possiamo pagare altrimenti, possiamo pensare il token in modi differenti da come i progettisti ce lo hanno venduto?

Lo spiedo di ferro, ricordiamolo, pesava settantadue centesimi di grammo. La manciata che ne conteneva sei pesava quattro grammi e trenta. Un talento ne pesava ventisei chili. Ogni volta che un modello linguistico elabora un nostro pensiero, a quel peso antico si somma un contributo nuovo, microscopico eppure reale. Conviene sapere quanto vale. A chi gli chiedeva quale fosse il luogo ultimo del pensiero, Nishida rispondeva con la frase zen della dottrina del vuoto mentale, «fa sorgere la mente che non dimora da nessuna parte». Sarebbe una memoria senza pedaggio.


Appendice. Bibliografia commentata

Ho suddiviso la bibliografia in cinque raggruppamenti tematici, per rendere trasparente l'architettura argomentativa del saggio e consentire al lettore di approfondire gli assi che ritenga più fertili.

Arti della memoria e genealogia dell'ars memoriae

Cicerone, Marco Tullio, De oratore, edizione italiana a cura di Emanuele Narducci, Rizzoli BUR, Milano, 2007. In questo volume troviamo il passo fondativo del metodo dei loci, libro secondo, capitoli LXXXVI-LXXXVIII, con l'episodio di Simonide di Ceo al banchetto di Scopa. L'edizione Narducci offre testo latino a fronte e commento filologico utile per chi voglia verificare le traduzioni correnti.

[Rhetorica ad Herennium], edizione italiana Retorica ad Erennio, a cura di Filomena Cannavale, Rusconi, Milano, 1992. Prima codificazione sistematica del metodo dei loci come tecnica di apprendimento. Testo anonimo del primo secolo avanti Cristo, lungo attribuito a Cicerone stesso. Lettura obbligata per chi voglia cogliere la sobrietà pragmatica della mnemotecnica antica, anteriore alle esuberanze rinascimentali.

Rossi, Paolo, Clavis universalis. Arti della memoria e logica combinatoria da Lullo a Leibniz, nuova edizione, il Mulino, Bologna, 2000. L'opera decisiva per collocare le arti della memoria rinascimentali nella storia della scienza. Rossi mostra come Lullo, Camillo, Bruno, Kircher e Leibniz abbiano costruito, con strumenti ante litteram, le prime macchine combinatorie del sapere. Il libro, pubblicato per la prima volta nel 1960, resta insuperato per rigore filologico e profondità interpretativa.

Rossi, Paolo, Il passato, la memoria, l'oblio. Sei saggi di storia delle idee, il Mulino, Bologna, 2001. Continuazione riflessiva del precedente, con sei saggi che coprono la memoria nell'età della stampa, l'invenzione del passato storiografico, il ruolo dell'oblio come funzione cognitiva attiva. Utile per chi voglia uscire dalla visione della memoria come semplice deposito.

Yates, Frances A., L'arte della memoria, traduzione di Albano Biondi, Einaudi, Torino, 1972. Il classico inglese sulla tradizione mnemotecnica. Rispetto a Rossi, Yates privilegia il filone ermetico e magico, e offre ricostruzioni suggestive del teatro della memoria di Camillo e delle architetture brunine. Va letto con qualche riserva filologica, per la sua tendenza a vedere continuità ermetica dove altri vedrebbero rotture, ma rimane ineludibile.

Semiotica della cultura e memoria collettiva, asse russo-estone

Lotman, Yuri M., La semiosfera. L'asimmetria e il dialogo nelle strutture pensanti, a cura di Simonetta Salvestroni, Marsilio, Venezia, 1985. Raccolta italiana dei saggi che Lotman dedicò al concetto di semiosfera fra gli anni settanta e ottanta. Il volume contiene la definizione di memoria culturale come meccanismo tripartito e l'analisi delle dinamiche centro-periferia nella cultura, che ho sfruttato per il ragionamento sul rapporto asimmetrico fra piattaforme e utenti finali.

Bachtin, Mikhail, Estetica e romanzo, a cura di Clara Strada Janovič, Einaudi, Torino, 1979. Raccolta italiana dei saggi bachtiniani sul cronotopo e sul dialogismo, elaborati fra gli anni trenta e sessanta del Novecento. L'edizione Einaudi, curata da una delle migliori slaviste italiane, contiene apparati utilissimi per seguire la genesi del pensiero bachtiniano.

Vernadskij, Vladimir I., La biosfera e la noosfera, a cura di Davide Fais, Sellerio, Palermo, 1999. Il volume raccoglie i testi in cui Vernadskij elabora i due concetti, di biosfera e noosfera, che Lotman avrebbe successivamente ripreso e trasposto in ambito semiotico. Lettura esigente ma fondamentale per comprendere la matrice scientifica della semiotica sovietica.

Lurija, Aleksandr R., La storia sociale dei processi cognitivi, a cura di Maria Serena Veggetti, traduzione di Rossana Platone, Giunti Barbera, Firenze, 1976. Il volume in cui Lurija raccoglie i risultati delle sue ricerche uzbeke degli anni trenta, mostrando come attraverso l'alfabetizzazione vengano modificate le funzioni cognitive superiori. Precede di cinquant'anni le riflessioni contemporanee su come gli strumenti digitali plasmino il pensiero. Esiste anche una più recente edizione Editoriale Jouvence.

Filosofia giapponese del luogo

Nishida, Kitarō, Luogo, a cura di Enrico Fongaro, traduzione di Enrico Fongaro e Marcello Ghilardi, Mimesis, Milano-Udine, 2012. Prima traduzione italiana del saggio Basho del 1927, autentico turning point della filosofia nishidiana. Fongaro è oggi il principale traduttore italiano del filosofo di Kanazawa, e la sua introduzione costituisce una buona porta di accesso alla Scuola di Kyōto.

Watsuji, Tetsurō, Fūdo. Il legame tra clima e cultura, a cura di Giuseppe Jisō Forzani, Mimesis, Milano-Udine, 2011. Il capolavoro del 1935 sul rapporto fra ambiente, clima e cultura. Lettura essenziale per chi voglia comprendere la nozione giapponese di spazio come campo vivente, alternativa al contenitore geometrico.

Tollini, Aldo (a cura di), Antologia del buddhismo giapponese, Einaudi, Torino, 2009. Raccolta dei principali testi del buddhismo giapponese tradotti dall'originale, dalle scuole Tendai e Shingon fino allo Zen. Tollini, già docente di lingua giapponese classica a Ca' Foscari, offre traduzioni filologicamente affidabili e un apparato introduttivo in cui l'opera di Kūkai e degli altri maestri viene contestualizzata. Porta d'accesso privilegiata alla tradizione buddista giapponese per il lettore italiano.

Economia politica del dato e del linguaggio

Ayllon, Teodoro, Azrin, Nathan H., The Token Economy. A Motivational System for Therapy and Rehabilitation, Appleton-Century-Crofts, New York, 1968. Il testo fondativo della token economy nella psicologia comportamentale. Imprescindibile per cogliere l'omonimia sostanziale con il concetto omonimo applicato oggi ai modelli linguistici.

Polanyi, Karl, La grande trasformazione. Le origini economiche e politiche della nostra epoca, traduzione di Roberto Vigevani, Einaudi, Torino, 2010. Originale del 1944, resta il testo classico per comprendere come con le trasformazioni delle unità di misura economica vengano prodotti spostamenti del potere cognitivo e sociale. La traduzione Einaudi include la prefazione di Alfredo Salsano, utile per la contestualizzazione storica.

Zuboff, Shoshana, Il capitalismo della sorveglianza. Il futuro dell'umanità nell'era dei nuovi poteri, traduzione di Paolo Bassotti, Luiss University Press, Roma, 2019. Il testo con cui è stata imposta la locuzione «capitalismo della sorveglianza» al dibattito internazionale. Rispetto a Zuboff, nel mio saggio adotto una prospettiva parzialmente diversa, poiché nella token economy l'utente paga in prima persona per vedere elaborate le proprie parole. Lettura comunque inevitabile per il quadro generale.

De Mauro, Tullio, Storia linguistica dell'Italia unita, Laterza, Bari, 1963. Classico della linguistica italiana sulla politicità di ogni standardizzazione linguistica. Utile per chi voglia cogliere perché nei tokenizer addestrati prevalentemente su testi inglesi venga prodotta un'asimmetria economica a scapito dei parlanti di altre lingue.

Memoria elettronica e sapere organizzativo

Flusser, Vilém, "On Memory (Electronic or Otherwise)", in «Leonardo», vol. 23, n. 4, 1990, pp. 397-399. Breve saggio programmatico in cui Flusser anticipa di trent'anni le discussioni attuali sulla memoria delle macchine. Edizione italiana di riferimento per l'opera flusseriana: La cultura dei media, traduzione di Sabrina Vaccaro, Bruno Mondadori, Milano, 2004.

Varanini, Francesco, Le parole del manager. Cento voci per capire l'azienda, Guerini Next, Milano, 2020. Lettura di servizio per chi lavora in ambito organizzativo e desidera cogliere come nella terminologia manageriale corrente vengano occultate questioni filosofiche più profonde. Nel volume troviamo, fra l'altro, la delega tecnica al ricordo analizzata come forma di oblio organizzativo.


StultiferaBiblio

Pubblicato il 19 aprile 2026

Calogero (Kàlos) Bonasia

Calogero (Kàlos) Bonasia / etiam capillus unus habet umbram suam

https://kalosbonasia.github.io