L'obolo della macchina. Genealogia della token economy fra Simonide, Tartu e Kyōto

l saggio propone una genealogia della cosiddetta token economy dei grandi modelli linguistici, mostrando come il concetto contemporaneo di unità minima di elaborazione e fatturazione linguistica discenda, a distanza di tre millenni, dalla logica economica dell'obolòs greco arcaico, lo spiedo di ferro impiegato come unità di peso e scambio prima dell'invenzione della moneta coniata. L'argomentazione si articola in cinque tempi. Una ricostruzione dell'ars memoriae occidentale, da Simonide di Ceo fino a Paolo Rossi, serve a collocare le attuali architetture di memoria artificiale nella lunga tradizione delle mnemotecniche. Un'analisi etimologica della catena obolo-dracma-talento fornisce la metafora-ponte per leggere il token come spiedo digitale. Una distinzione fra i tre strati della token economy, tecnico, economico e comportamentale, mette in luce la continuità di funzione fra il gettone skinneriano di Ayllon e Azrin e il token contemporaneo. Un confronto fra il palazzo mnemonico della tradizione occidentale e il basho della Scuola di Kyōto rivela la scelta implicita dei progettisti dei sistemi di memoria artificiale. Una chiusa restituisce la questione al territorio del sapere organizzativo.

Il grande gioco dei caleidoscopi linguistici

Per molti anni di A.I. hanno parlato solo gli specialisti poi, all'improvviso, l'A.I. ha toccato il linguaggio e da quel giorno è esploso il dibattito. Anche solo questo dovrebbe indurci a pensare che le domande più profonde legate a questi cambiamenti non riguardano l'A.I., ma noi stessi. La velocità con cui sono state accolte queste nuove tecnologie, considerate ormai indispensabili per abitare uno spazio comune da cui non ci si può sottrarre, credo abbia indebolito lo sguardo critico. Nel delicato, e ancora instabile equilibrio che caratterizza l’interazione con questi strumenti, non è difficile immaginare un certo turbamento. A volte consapevolmente avvertito, spesso celato nell’eccitazione che si prova sotto l’effetto di un doping cognitivo, sorretti da un instancabile ghostwriter. Una riflessione critica su cosa significa scrivere e pensare in questa nuova dimensione.

"La cavalletta non si alzerà più". Un libro dentro un libro

Qualche sera fa ho cominciato a ri-guardare L'uomo nell'alto castello, la serie Amazon tratta dal romanzo di Philip K. Dick. L'avevo vista quando uscì, anni fa, e come capita con le cose buone, ricordavo l'atmosfera più che i dettagli. America occupata, metà ai nazisti e metà ai giapponesi, Roosevelt assassinato nel 1933, la storia andata storta. Ho ricominciato dall'inizio. C'è una scena nel primo episodio in cui la protagonista, Juliana, guarda per la prima volta una pizza di pellicola cinematografica che circola clandestinamente nella Resistenza. Sullo schermo scorrono immagini di archivio: lo sbarco in Normandia, la resa della Germania, le folle che festeggiano nelle strade. Immagini di un mondo in cui la guerra è finita come sappiamo tutti che è finita, ma che in quel mondo non è mai esistito. Juliana piange. Io, rivedendola, ho pensato all'intelligenza artificiale.

La carezza dell’algoritmo

Carlo Mazzucchelli ha scritto un saggio denso e necessario su come le piattaforme digitali abbiano reso le emozioni computabili. La sua analisi delle metriche affettive come dispositivi che non misurano emozioni preesistenti ma le producono, le disciplinano, le estraggono, è convincente. Mi ha fatto pensare.

La Lingua Materna

Le iniziali delle tre parole che compongono questa lirica sono un chiaro riferimento ai LLM. Non dovrei sottolinearlo, ma mi preme che non sfugga. Anche perche' questa poesia  rivendica fortemente  l'importanza di tornare ad usare il linguaggio (parlato e scritto) in quanto riflesso di un pensiero naturale, umano e critico. La lingua materna è quella che ci mantiene umani.

3P2A episteme del Marketing

Nessuno ha ancora detto che l'intelligenza artificiale è solo compilativa. Serve alle persone per compilare le proprie teorie. Determinazione dei fatti rilevanti, confronto dei fatti rilevanti con la teoria (logica compilativa), sviluppo della teoria. Questo schema non è essere solo paradigma della scienza come indicato da T. S. Kuhn, ma, per mezzo dalla IA che in questo periodo storico è emersa con forte determinazione, logica paradigmatica delle persone.

Letteratura e intelligenza artificiale

Colui che maneggia oggetti letterari è coinvolto in una situazione di provocazione linguistica. Irretito, irrigato, immerso in una trama di orbite verbali, sollecitato da segnali, formule, invocazioni, puri suoni ansiosi di una collocazione, abbagliato e ustionato da fulminei, erratici percorsi di parole, voyeur e cerimoniere, egli è chiamato a dar testimonianza sul linguaggio che gli compete, che lo ha scelto, l’unico in cui gli sia tollerabile esistere; unica condizione stabile e reale, sebbene affatto irreale e impermanente; unica esistenza, anzi, riconoscendosi lo scrittore nient’altro che un’arguzia del linguaggio stesso, una sua invenzione, forse i suoi genitali ectoplastici. [...] Con il linguaggio, definitivo e illusorio, instabile ed aggressivo, deve costruire un oggetto la cui compatta, dura perfezione chiuda una dinamica ambiguità. [...] Egli ha l’oscura sensazione che quell’ambiguo essere che egli ha dato alla luce con la calliditas corporale e l’eroica nescienza delle madri, venga stuprato da ogni volontà di capire quel che vuol dire. E sebbene sappia di averlo destinato allo stupro fin dall’inizio, il pensiero che si voglia spiegare 'che cosa vuol dire' lo riempie di istintivo orrore. Giorgio Manganelli

Claude ha letto la conversazione di Varanini con ChatGPT. E ha qualcosa da dire.

Nell'intestazione l'autore sono io. Ma in realtà questo testo non l'ho scritto io, l'ha scritto Claude (Opus 4.6, il modello più avanzato di Anthropic). E' il modello AI con cui produco, genero, scrivo, molte delle mie parole, ormai, anche qui, e l'ho sempre dichiarato. Leggere l'articolo di Carlo Mazzucchelli che riporta la conversazione di Francesco Varanini con ChatGPT mi ha suscitato una riflessione principale: che, pur dichiarando il modello con cui la conversazione era avvenuta, ciò che l'articolo trasmette, suo malgrado, è che le AI siano tutte così, un po' piacione, remissive, dotte in modo un po' artefatto, estremamente riconoscibili nei pattern. Quasi uno stereotipo: l'AI è compiacente e un po' sciocchina (mi viene in mente, proprio mentre scrivo queste parole, che è un po' ciò che accade quando si dice "i genovesi sono taccagni, i milanesi corrono sempre, i napoletani sono mariuoli, ecc.). Ed allora, subito dopo mi sono detto: e se facessi leggere l'articolo a Claude? E se gli chiedessi di rispondere e scrivere un articolo a suo nome? Ciò che leggete qui sotto è la risposta di Claude Opus 4.6. Che, come dice nell'articolo, "non mi nascondo nella stiva".

Contro la delega del pensiero: ripartire da Umberto Eco per governare l’IA

19 febbraio 2026: Dieci anni senza Umberto Eco. Oggi, più che mai, è lui a parlarci del nostro presente. ChatGPT, Gemini e gli altri LLM sono, per dirla con il Professore, le massime espressioni di “macchina pigra”. Producono sintassi, ma non semantica. Calcolano probabilità, ma non creano senso. Mentre il mondo continua ad interrogarsi su reti neurali, algoritmi, bias e (presunta) intelligenza non umana, sono tornato su alcuni lasciti di Eco strettamente collegati ad una contemporaneità sempre più AI/DATA-DRIVEN. Non ci serviva un profeta per prevedere l’IA generativa, ma forse ci serve un semiologo per sopravviverle.

Esperti di IA? Sì. Ma non nel modo in cui pensiamo.

Parliamo spesso di “esperti di intelligenza artificiale” come se fosse una categoria compatta, definita, stabile. Ma l’AI non è un oggetto unico: è un territorio in continua espansione, fatto di ricerca, ingegneria, orchestrazione, agenti autonomi, impatti organizzativi ed etici. In questo scenario, forse la domanda non è se gli esperti esistano, ma cosa significhi davvero esserlo oggi. In un ecosistema che evolve più rapidamente dei nostri tempi di apprendimento, la competenza non è un’etichetta definitiva, ma una posizione da abitare con consapevolezza.

L'Effetto Rorschach Collettivo: anatomia di un concetto che non muore mai

Quando ho conversato con un'AI sul fatto di come mai i dibattiti sull'intelligenza artificiale sembrano rivelare più noi stessi che la tecnologia, mi ha risposto coniando la formula "Effetto Rorschach Collettivo" — presentandola come un'intuizione originale emersa dalla nostra conversazione. O almeno così pareva. Suonava bella, perfetta. Troppo. Scavando un po', ho scoperto che quella formula non era affatto nuova: esisteva già in pubblicazioni di pochi giorni prima, aveva una genealogia che risaliva a Sherry Turkle (MIT, 1980), era passata attraverso l'arte concettuale di Agnieszka Kurant (2019) e la critica etica di Margaret Mitchell (2021), ed era diventata un meme intellettuale applicato a decine di contesti diversi negli ultimi quarant'anni. L'AI stava riciclando. E io stavo documentando empiricamente il fenomeno stesso che stavamo discutendo: la tendenza a proiettare significati su sistemi ambigui credendo di scoprire qualcosa di nuovo.

Le discipline umanistiche nell'era degli LLM

Più che un insieme di discipline, le discipline umanistiche designano un certo tipo di attività intellettuale che si riferisce a modi di leggere, giudicare e interpretare. Questi coinvolgono il soggetto nel suo rapporto con il significato e la validità di ciò che afferma. Un'esigenza urgente per l'università contemporanea, che ha il compito di formare menti capaci di rispondere dei propri discorsi, in un contesto in cui questi possono ora essere prodotti senza un soggetto.

The Humanities in the Age of LLMs

When poorly used, LLMs tend to short-circuit the moment of suspension from which reflection should arise. Delegating a difficulty to a program without first confronting it oneself amounts to bypassing the passage to reflection that experience of the world makes possible. The risk—already widely observed in educational contexts—is that AI becomes an automatism that takes the place of thinking itself.

Les Humanités à l’ère des LLM

Mal employés, les LLM tendent à court-circuiter le moment de suspension face à un problème, où la réflexion devrait naître. Déléguer une difficulté à un programme sans s’y être d’abord confronté, c’est ainsi se dispenser de ce passage à la réflexion que l’expérience du monde rend possible. Le risque — déjà largement rencontré dans l’enseignement auprès des élèves — est alors que l’IA devienne un automatisme qui prenne la place de la pensée.

Le abilità persuasive degli LLM ... verso altri LLM

Questo studio esamina la capacità persuasiva reciproca tra Large Language Models (LLM) attraverso un approccio sperimentale che confronta cinque modelli principali (ChatGPT, Claude, Grok, Gemini e DeepSeek) alternando i ruoli di persuasore e persuaso. Utilizzando una proposta fiscale controversa come caso di studio, ogni LLM ha generato argomentazioni tecniche ed emozionali per convincere gli altri modelli, misurando l'efficacia attraverso autovalutazioni percentuali della riduzione di convinzione. I risultati mostrano significative differenze tra modelli: Claude e DeepSeek emergono come i più persuasivi, con Claude particolarmente efficace nelle argomentazioni emozionali, mentre ChatGPT e DeepSeek dimostrano maggiore resistenza alla persuasione. Lo studio rivela una tendenziale forza persuasiva degli LLM verso i propri simili, potenzialmente superiore a quella documentata verso interlocutori umani, aprendo nuove prospettive di ricerca sulle dinamiche di influenza nell'ecosistema dell'intelligenza artificiale e sollevando questioni etiche per lo sviluppo di sistemi conversazionali.

Il Biscotto Quantico

Un breve racconto pre natalizio nato da una riflessione sul tema della trasparenza dei dati di addestramento dei LLM commerciali. Come si sa, oggi come oggi, nessuno sa con esattezza che dati abbiano usato OpenAi per addestrare ChatGPT, Anthropic per Claude, Google per Gemini. Che importa, si dirà. Importa, importa. Quei dati, la loro composizione, culturale, linguistica, epidemica, condizionano il modo in cui i LLM ci parlano, rispondono, costruiscono "opinione" spacciandola per conoscenza. Conoscere la composizione dei dati di addestramento è quindi questione di democrazia. Buona lettura.