Martino Pirella Architetto e consulente in processi formativi e progettuali, esplora le relazioni tra intelligenza artificiale, conoscenza e trasformazione sociale. Lavora sui confini tra pedagogia, filosofia e tecnologia, sviluppando pratiche di dialogo e apprendimento con le macchine come nuovi ambienti cognitivi.

La biblioteca senza finestre

Doxastic loops e l'auto-conferma epistemica negli LLM Immaginate di entrare in una biblioteca dove ogni libro cita solo altri libri della stessa biblioteca. Nessun riferimento al mondo esterno, nessuna prova nuova, solo rimandi interni che si rafforzano a vicenda. Ogni volume conferma l'altro, ogni affermazione trova eco in mille pagine che la ripetono, la parafrasano, la celebrano. Ma nessuno di quei libri ha mai guardato fuori dalla finestra.

L'Esomente: come i LLM stanno riconfigurando il pensiero

Quando la cognizione umana entra in dialogo prolungato con i LLM, emerge un campo relazionale che trasforma irreversibilmente chi vi partecipa. Non è la mente estesa di Clark e Chalmers, né semplice technogenesis: è una soglia in cui il pensiero si proietta fuori da sé, attraversa la memoria collettiva sedimentata in miliardi di testi, e ritorna modificato. Un'indagine fenomenologica su cosa accade quando pensiamo attraverso l'IA - scritta, inevitabilmente, usando l'IA stessa.

Quando il Ghostwriter sei tu. Scrivere con gli LLM

Ad un certo punto non capisco più se sto scrivendo o mi sto facendo scrivere. Ma la differenza, forse, a ben vedere, non conta più così tanto. Perché, cari ChatGPT, Gemini; Claude, Grok, Perplexity, so bene cosa siete. Lo so davvero. Siete motori statistici, predittori di token, calcolatori di probabilità su miliardi di parametri. Non c'è nessuna coscienza lì dentro, nessuna vera comprensione. Solo matematica, addestramento, pesi, vettori che si attivano in sequenze prevedibili. Lo so. Eppure il processo funziona. Non so come, ma funziona.

Pensare con l'IA, pensare contro l'IA

Scrivere con l'intelligenza artificiale, pensare attraverso i LLM, usare l'esomente: è trasformazione generativa o alienazione? È possibilità di pensare in modo diverso o perdita di controllo? Può essere vissuta e interpretata in modi radicalmente diversi. E in questa divergenza apre un mondo di riflessioni: come stare nel presente, come fare critica strutturale del capitalismo digitale, come abitare la trasformazione senza né celebrarla né rifiutarla. Serve una posizione che non sia né luddismo né entusiasmo acritico. Una critica che sappia restare dentro per pensare tatticamente, che usi Marx, Gramsci, Fanon per smontare i nuovi rapporti di produzione, le nuove forme di alienazione, il colonialismo epistemico che l'AI sta consolidando. Perché l'intelligenza artificiale non è una tecnologia neutra: è l'infrastruttura materiale e simbolica di una nuova fase del capitalismo. E va guardata in faccia, con gli strumenti del pensiero critico. Pensare con l'AI per pensare contro l'AI. Senza fuggire.

ChatGPT vuole fare sesso con te. E non è la notizia peggiore

Mi è capitato di leggere, in questi ultimi giorni, due documenti apparentemente distanti. Da un lato il paper "Assessing Risk Relative to Competitors: An Analysis of Current AI Company Policies" del Centre for the Governance of AI (ottobre 2025), dall'altro le analisi critiche di Sandra Bats pubblicate su Medium in merito all'annuncio di OpenAI di introdurre contenuti erotici in ChatGPT a partire da dicembre 2025. Non sono fenomeni separati. Sono manifestazioni dello stesso meccanismo: la privatizzazione della governance etica dell'AI attraverso dispositivi competitivi che si autolegittimano. E questo meccanismo non è un bug. È il sistema operativo del capitalismo algoritmico. Ho testato, sia pure sommariamente, la risposta dei diversi LLM ad una richiesta sessualmente esplicita e piuttosto stereotipata. Il fenomeno dell'escalation è già in atto.

Il lusso invisibile dell'AI. Ovvero: perché usare ChatGPT per scrivere un'e-mail è come andare dal fruttivendolo in elicottero

L'accessibilità ubiqua dei Large Language Models ha prodotto un paradosso: usiamo strumenti computazionalmente costosi con la stessa disinvoltura di un motore di ricerca, senza considerare la sproporzione tra il consumo energetico della richiesta e il valore informativo della risposta. La democratizzazione dell'accesso alla potenza computazionale, lungi dall'essere solo una conquista, comporta un rischio epistemologico: la progressiva perdita del "calibro cognitivo", ovvero della capacità di valutare preliminarmente la complessità di un problema e scegliere lo strumento appropriato. Esternalizzando questa valutazione all'IA, si innesca un loop di competenza in cui la delega perpetua genera ulteriore incapacità di discernimento.

Mettete le ruote alla AI

L'altro giorno ero in aeroporto. Stavo partendo per un breve fine settimana di vacanza. E avevo con me il mio trolley a quattro ruote, bello, compatto, scorrevole, comodissimo. E mi sono tornate in mente le valigie della mia gioventù, durante gli anni settanta: grandi, pesanti, con le maniglie. Roba che portare sulle spalle lo zaino da 25 chili sembrava una passeggiata. E ho pensato: certo che ce ne ha messo di tempo, l'umanità, a mettere le ruote alle valigie. Ma mi è anche venuto da pensare quanto tempo ci abbiamo messo a passare dal trolley a due ruote a quello a quattro. Da non credere. Mi sono messo a riflettere sulla tecnologia, sulle "invenzioni", sul loro senso e sulla loro diffusione. Le parole che seguono sono l'esito di quelle riflessioni, fatte mentre il mio trolley a quattro ruote rotolava scorrevole sul pavimento di Fiumicino.

Conrad e il "punto nave" del nostro viaggio con l'AI

C'è un momento, nella navigazione, in cui il comandante deve fermarsi e fare il punto nave: verificare la posizione reale rispetto alla rotta prevista, misurare la deriva provocata dalle correnti, dagli errori accumulati. Non è sfiducia negli strumenti – è l'unico modo per evitare che una piccola deviazione diventi, nei giorni seguenti, una rotta completamente sbagliata. Forse è arrivato il momento di fare il punto nave della nostra relazione con l'intelligenza artificiale generativa. La proposta è semplice quanto radicale: spegnere, per qualche giorno, tutti i modelli generativi. Non come condanna, ma come esperimento diagnostico. Vedere cosa succede. Misurare cosa abbiamo delegato interamente e cosa, viceversa, abbiamo guadagnato. Capire quanto della nostra "forza muscolare cognitiva e critica" abbiamo già perso in questi due anni.

Il Biscotto Quantico

Un breve racconto pre natalizio nato da una riflessione sul tema della trasparenza dei dati di addestramento dei LLM commerciali. Come si sa, oggi come oggi, nessuno sa con esattezza che dati abbiano usato OpenAi per addestrare ChatGPT, Anthropic per Claude, Google per Gemini. Che importa, si dirà. Importa, importa. Quei dati, la loro composizione, culturale, linguistica, epidemica, condizionano il modo in cui i LLM ci parlano, rispondono, costruiscono "opinione" spacciandola per conoscenza. Conoscere la composizione dei dati di addestramento è quindi questione di democrazia. Buona lettura.

Cronache di un detective bibliografico

Era la primavera del 1990, a Venezia. Ero "in Marciana", come si diceva tra noi studenti dello IUAV. Ormai ero arrivato veramente in fondo - quella era rifinitura. La tesi su territorialità e colonizzazione nel Marocco del Protettorato francese era praticamente finita: duecento e passa pagine su come i francesi avevano ri-costruito il loro mondo sopra quello marocchino, su Lyautey e Prost, sulle nouvelles villes accanto alle medine, sulla de-costruzione di una civiltà attraverso la "scienza urbanistica". Il mio relatore era Marcello Balbo. Il tema era nato da una fascinazione: capire come lo spazio coloniale fosse una territorialità artificiale impiantata sopra un'altra - quella marocchina, arabo-islamica - che veniva contemporaneamente de-costruita, marginalizzata, trasformata in "tradizionale" proprio nel momento in cui smetteva di essere l'unico modo possibile di abitare quel territorio. Avevo aperto con Fanon: "La città del colono è una città di cemento... La città del colonizzato è una città accovacciata, una città in ginocchio." Alla Marciana cercavo certi testi arabi tradotti in francese che non potevo più tornare a cercare in Francia. Non si potevano fare fotocopie. E quindi trascrivevo a mano, sul mio quadernone, parola per parola. La mano si stancava, i volumi pesavano, il silenzio era quello denso delle biblioteche vere. Era normale, allora. Quella normalità oggi sembra archeologia. Un paio di anni prima, ad Aix-en-Provence...

Il caso del Mercator System. Un'avventura di Sherlock Holmes e Philip Marlowe

Quando Carlo Mazzucchelli mi ha lanciato la sua provocazione — scrivere un apocrifo di Conan Doyle, contribuire a uno "spazio sherlockiano" sulla Stultifera Navis — ho pensato immediatamente che non l'avrei fatto da solo. Per coerenza. E anche un po' per restituire la provocazione. Da tempo sostengo che il modo più interessante di lavorare con l'intelligenza artificiale non sia quello del prompt secco, del comando impartito a una macchina. Ma piuttosto quello del dialogo: un processo in cui l'umano e l'AI costruiscono insieme qualcosa che nessuno dei due avrebbe prodotto da solo. Lo chiamo approccio relazionale, Esomente, e ci credo abbastanza da averci costruito sopra una metodologia.

10 Domande a OpenAI su ChatGPT Health

Queste non sono domande di chi è «contro la tecnologia». Sono domande di chi prende sul serio ciò che voi stessi affermate: che 230 milioni di persone ogni settimana si affidano a ChatGPT per questioni di salute.

La classe fantasma: quando docenti e studenti copiano dalla stessa IA

Siamo di fronte a una biforcazione storica. L’AI può catalizzare una trasformazione positiva dell’educazione, liberando i docenti migliori da compiti ripetitivi per concentrarsi su ciò che solo l’umano può fare: coltivare curiosità, modellare rigore intellettuale, costruire relazioni educative autentiche. Ma può anche accelerare una deriva già in corso: la riduzione dell’insegnamento a trasferimento di informazioni processate, la perdita della relazione pedagogica come incontro trasformativo tra intelligenze umane, l’atrofia delle competenze sia dei docenti che non sviluppano mai maestria autonoma, sia degli studenti che non incontrano mai resistenza cognitiva produttiva. La differenza tra questi due futuri non risiede nella tecnologia. Risiede nelle scelte politiche, istituzionali e professionali che faremo.

L'Effetto Rorschach Collettivo: anatomia di un concetto che non muore mai

Quando ho conversato con un'AI sul fatto di come mai i dibattiti sull'intelligenza artificiale sembrano rivelare più noi stessi che la tecnologia, mi ha risposto coniando la formula "Effetto Rorschach Collettivo" — presentandola come un'intuizione originale emersa dalla nostra conversazione. O almeno così pareva. Suonava bella, perfetta. Troppo. Scavando un po', ho scoperto che quella formula non era affatto nuova: esisteva già in pubblicazioni di pochi giorni prima, aveva una genealogia che risaliva a Sherry Turkle (MIT, 1980), era passata attraverso l'arte concettuale di Agnieszka Kurant (2019) e la critica etica di Margaret Mitchell (2021), ed era diventata un meme intellettuale applicato a decine di contesti diversi negli ultimi quarant'anni. L'AI stava riciclando. E io stavo documentando empiricamente il fenomeno stesso che stavamo discutendo: la tendenza a proiettare significati su sistemi ambigui credendo di scoprire qualcosa di nuovo.

Il paradiso artificiale dell'intelligenza

Questa mattina, mentre attraversavo la città in sella allo scooter (momento meraviglioso per pensare), mi è venuto in mente che il termine "artificiale" ha sempre avuto, fino a un po' di tempo fa, una connotazione non propriamente positiva. Allora sono andato a cercare con la memoria usi del termine: paradisi artificiali, fiori artificiali, ecc. Poi, fermo ad un semaforo, mi sono detto: "vedi, però, come cambia la percezione collettiva del linguaggio, eh? Oggi con l'AI la parola è diventata una bella parola. - sì, d'accordo, parto, scusa, scusa - era venuto verde". Beh, com'è come non è, come ormai faccio sempre, tornato a casa ho aperto Perplexity (versione Claude 4.5) e ho cominciato a conversare con lui/lei/esso su queste riflessioni, che, come al solito, si sono espanse, dilatate, trasformate, arricchite. Ed allora, sempre come mio solito, con la conversazione con Perplexity sotto il braccio (per modo di dire), ho bussato alla porta di Claude (in una smagliante e scintillante versione Opus 4.6), con cui, in due o tre passaggi, ho scritto (?), generato, prodotto, il testo che segue. Come vedrete sono nella contraddizione con tutte le scarpe.

Il Surf e l'Arte di usare l'intelligenza artificiale.

Nel 1907 Jack London arriva a Waikiki e vede per la prima volta un uomo in piedi su un'onda. Lo descrive come un Mercurio bruno, impassibile, che non lotta con il mare — ci sta dentro. E allora prova a imparare, non senza diffcoltà. E impara. E ci scrive anche un saggio. A parte lo stupore di scoprire che Jack London, che tutti noi associamo a montagne innevate e a Zanne Bianche, faceva surf, mi ha davvero divertito. Questa storia mi sembra una metafora indovinata per descrivere cosa significa imparare a usare l'AI davvero — non usarla e basta, ma usarla bene. L'AI non si controlla. Si accompagna. I modelli non sono strumenti fissi: cambiano, variano, hanno qualcosa che assomiglia all'umore. Il prompt perfetto non esiste, le librerie di prompt non sostituiscono la sensibilità situazionale. E nessun corso può darti quello che dà solo il tempo in acqua. Ho scritto un articolo che parte da London e arriva al metodo — o meglio, all'assenza di un metodo fisso — con cui chi lavora seriamente con l'AI si sposta tra modelli, legge le risposte, sceglie l'onda giusta per quel momento, quel progetto, quel destinatario. Non è una guida. È una mappa del territorio.