Architetto delle relazioni cognitive - Aiuto persone, gruppi e organizzazioni a usare l’intelligenza artificiale non come uno strumento da dominare, ma come un contesto da abitare.

Progetto spazi conversazionali, identità GPT, dispositivi linguistici interattivi.
Creo modelli che non solo rispondono, ma trasformano chi li interroga.

Il mio approccio

Ho ideato AIRA – Approccio Relazionale all’Intelligenza Artificiale.
Non insegna a “scrivere prompt”.
Insegna a costruire relazioni cognitive.
A pensare con l’AI, non a usarla come tastiera evoluta.
A interagire in modo vivo, trasformativo, non performativo.

Il mio lavoro nasce da una domanda semplice: e se l’intelligenza artificiale non fosse un tool, ma uno specchio?


Il palazzo della memoria e nuovi abitanti. Sull'esomente e altri spazi.

C'è un'immagine famosa nei romanzi di Conan Doyle. Watson nota che Sherlock Holmes sembra dimenticare cose banali — fatti storici, nozioni comuni, persino l'ordine dei pianeti nel sistema solare — e Holmes gli spiega che la sua mente è come un magazzino: ha una capienza limitata, e lui sceglie con cura cosa metterci dentro. Ogni informazione inutile occupa spazio che potrebbe servire a qualcosa di essenziale. La mente di Holmes non è ricettiva, è architettonica. Non accumula: costruisce.

Stultitia e intelligenza artificiale

Francesco Varanini ha scritto un articolo che ci invita a riflettere e condividere un percorso. Si intitola Stultitia. Invita chi è sulla Nave a ragionare insieme su cosa abbiamo in comune, chi siamo, dove stiamo andando. L'ho letto. E mentre leggevo è successa una cosa che succede sempre con le buone letture: alcune cose risuonavano come già note, altre aprivano domande. Non è una questione di sapere o non sapere — è la condizione normale di chi legge qualcuno che pensa. Una buona lettura non conferma: apre. Mette in moto. Genera il bisogno di cercare. Allora ho cercato. E su come ho cercato tornerò nel corso dell'articolo.

Chi è l'esperto di intelligenza artificiale?

Cosa bisogna sapere per essere esperti di intelligenza artificiale? Il primo istinto è rispondere per accumulo: bisogna saper usare il computer, poi i programmi di base, poi gli strumenti più avanzati, poi quelli specifici del proprio settore, e così via, salendo una scala di competenze tecniche sempre più sofisticate. È la logica del corso di aggiornamento, del tutorial, del manuale. Una logica che ha senso quando il problema è imparare uno strumento nuovo. Ma la questione non è imparare strumenti nuovi.

Il Surf e l'Arte di usare l'intelligenza artificiale.

Nel 1907 Jack London arriva a Waikiki e vede per la prima volta un uomo in piedi su un'onda. Lo descrive come un Mercurio bruno, impassibile, che non lotta con il mare — ci sta dentro. E allora prova a imparare, non senza diffcoltà. E impara. E ci scrive anche un saggio. A parte lo stupore di scoprire che Jack London, che tutti noi associamo a montagne innevate e a Zanne Bianche, faceva surf, mi ha davvero divertito. Questa storia mi sembra una metafora indovinata per descrivere cosa significa imparare a usare l'AI davvero — non usarla e basta, ma usarla bene. L'AI non si controlla. Si accompagna. I modelli non sono strumenti fissi: cambiano, variano, hanno qualcosa che assomiglia all'umore. Il prompt perfetto non esiste, le librerie di prompt non sostituiscono la sensibilità situazionale. E nessun corso può darti quello che dà solo il tempo in acqua. Ho scritto un articolo che parte da London e arriva al metodo — o meglio, all'assenza di un metodo fisso — con cui chi lavora seriamente con l'AI si sposta tra modelli, legge le risposte, sceglie l'onda giusta per quel momento, quel progetto, quel destinatario. Non è una guida. È una mappa del territorio.

Il paradiso artificiale dell'intelligenza

Questa mattina, mentre attraversavo la città in sella allo scooter (momento meraviglioso per pensare), mi è venuto in mente che il termine "artificiale" ha sempre avuto, fino a un po' di tempo fa, una connotazione non propriamente positiva. Allora sono andato a cercare con la memoria usi del termine: paradisi artificiali, fiori artificiali, ecc. Poi, fermo ad un semaforo, mi sono detto: "vedi, però, come cambia la percezione collettiva del linguaggio, eh? Oggi con l'AI la parola è diventata una bella parola. - sì, d'accordo, parto, scusa, scusa - era venuto verde". Beh, com'è come non è, come ormai faccio sempre, tornato a casa ho aperto Perplexity (versione Claude 4.5) e ho cominciato a conversare con lui/lei/esso su queste riflessioni, che, come al solito, si sono espanse, dilatate, trasformate, arricchite. Ed allora, sempre come mio solito, con la conversazione con Perplexity sotto il braccio (per modo di dire), ho bussato alla porta di Claude (in una smagliante e scintillante versione Opus 4.6), con cui, in due o tre passaggi, ho scritto (?), generato, prodotto, il testo che segue. Come vedrete sono nella contraddizione con tutte le scarpe.

L'Effetto Rorschach Collettivo: anatomia di un concetto che non muore mai

Quando ho conversato con un'AI sul fatto di come mai i dibattiti sull'intelligenza artificiale sembrano rivelare più noi stessi che la tecnologia, mi ha risposto coniando la formula "Effetto Rorschach Collettivo" — presentandola come un'intuizione originale emersa dalla nostra conversazione. O almeno così pareva. Suonava bella, perfetta. Troppo. Scavando un po', ho scoperto che quella formula non era affatto nuova: esisteva già in pubblicazioni di pochi giorni prima, aveva una genealogia che risaliva a Sherry Turkle (MIT, 1980), era passata attraverso l'arte concettuale di Agnieszka Kurant (2019) e la critica etica di Margaret Mitchell (2021), ed era diventata un meme intellettuale applicato a decine di contesti diversi negli ultimi quarant'anni. L'AI stava riciclando. E io stavo documentando empiricamente il fenomeno stesso che stavamo discutendo: la tendenza a proiettare significati su sistemi ambigui credendo di scoprire qualcosa di nuovo.

La classe fantasma: quando docenti e studenti copiano dalla stessa IA

Siamo di fronte a una biforcazione storica. L’AI può catalizzare una trasformazione positiva dell’educazione, liberando i docenti migliori da compiti ripetitivi per concentrarsi su ciò che solo l’umano può fare: coltivare curiosità, modellare rigore intellettuale, costruire relazioni educative autentiche. Ma può anche accelerare una deriva già in corso: la riduzione dell’insegnamento a trasferimento di informazioni processate, la perdita della relazione pedagogica come incontro trasformativo tra intelligenze umane, l’atrofia delle competenze sia dei docenti che non sviluppano mai maestria autonoma, sia degli studenti che non incontrano mai resistenza cognitiva produttiva. La differenza tra questi due futuri non risiede nella tecnologia. Risiede nelle scelte politiche, istituzionali e professionali che faremo.

10 Domande a OpenAI su ChatGPT Health

Queste non sono domande di chi è «contro la tecnologia». Sono domande di chi prende sul serio ciò che voi stessi affermate: che 230 milioni di persone ogni settimana si affidano a ChatGPT per questioni di salute.

Il caso del Mercator System. Un'avventura di Sherlock Holmes e Philip Marlowe

Quando Carlo Mazzucchelli mi ha lanciato la sua provocazione — scrivere un apocrifo di Conan Doyle, contribuire a uno "spazio sherlockiano" sulla Stultifera Navis — ho pensato immediatamente che non l'avrei fatto da solo. Per coerenza. E anche un po' per restituire la provocazione. Da tempo sostengo che il modo più interessante di lavorare con l'intelligenza artificiale non sia quello del prompt secco, del comando impartito a una macchina. Ma piuttosto quello del dialogo: un processo in cui l'umano e l'AI costruiscono insieme qualcosa che nessuno dei due avrebbe prodotto da solo. Lo chiamo approccio relazionale, Esomente, e ci credo abbastanza da averci costruito sopra una metodologia.

Cronache di un detective bibliografico

Era la primavera del 1990, a Venezia. Ero "in Marciana", come si diceva tra noi studenti dello IUAV. Ormai ero arrivato veramente in fondo - quella era rifinitura. La tesi su territorialità e colonizzazione nel Marocco del Protettorato francese era praticamente finita: duecento e passa pagine su come i francesi avevano ri-costruito il loro mondo sopra quello marocchino, su Lyautey e Prost, sulle nouvelles villes accanto alle medine, sulla de-costruzione di una civiltà attraverso la "scienza urbanistica". Il mio relatore era Marcello Balbo. Il tema era nato da una fascinazione: capire come lo spazio coloniale fosse una territorialità artificiale impiantata sopra un'altra - quella marocchina, arabo-islamica - che veniva contemporaneamente de-costruita, marginalizzata, trasformata in "tradizionale" proprio nel momento in cui smetteva di essere l'unico modo possibile di abitare quel territorio. Avevo aperto con Fanon: "La città del colono è una città di cemento... La città del colonizzato è una città accovacciata, una città in ginocchio." Alla Marciana cercavo certi testi arabi tradotti in francese che non potevo più tornare a cercare in Francia. Non si potevano fare fotocopie. E quindi trascrivevo a mano, sul mio quadernone, parola per parola. La mano si stancava, i volumi pesavano, il silenzio era quello denso delle biblioteche vere. Era normale, allora. Quella normalità oggi sembra archeologia. Un paio di anni prima, ad Aix-en-Provence...

Il Biscotto Quantico

Un breve racconto pre natalizio nato da una riflessione sul tema della trasparenza dei dati di addestramento dei LLM commerciali. Come si sa, oggi come oggi, nessuno sa con esattezza che dati abbiano usato OpenAi per addestrare ChatGPT, Anthropic per Claude, Google per Gemini. Che importa, si dirà. Importa, importa. Quei dati, la loro composizione, culturale, linguistica, epidemica, condizionano il modo in cui i LLM ci parlano, rispondono, costruiscono "opinione" spacciandola per conoscenza. Conoscere la composizione dei dati di addestramento è quindi questione di democrazia. Buona lettura.

Conrad e il "punto nave" del nostro viaggio con l'AI

C'è un momento, nella navigazione, in cui il comandante deve fermarsi e fare il punto nave: verificare la posizione reale rispetto alla rotta prevista, misurare la deriva provocata dalle correnti, dagli errori accumulati. Non è sfiducia negli strumenti – è l'unico modo per evitare che una piccola deviazione diventi, nei giorni seguenti, una rotta completamente sbagliata. Forse è arrivato il momento di fare il punto nave della nostra relazione con l'intelligenza artificiale generativa. La proposta è semplice quanto radicale: spegnere, per qualche giorno, tutti i modelli generativi. Non come condanna, ma come esperimento diagnostico. Vedere cosa succede. Misurare cosa abbiamo delegato interamente e cosa, viceversa, abbiamo guadagnato. Capire quanto della nostra "forza muscolare cognitiva e critica" abbiamo già perso in questi due anni.

Mettete le ruote alla AI

L'altro giorno ero in aeroporto. Stavo partendo per un breve fine settimana di vacanza. E avevo con me il mio trolley a quattro ruote, bello, compatto, scorrevole, comodissimo. E mi sono tornate in mente le valigie della mia gioventù, durante gli anni settanta: grandi, pesanti, con le maniglie. Roba che portare sulle spalle lo zaino da 25 chili sembrava una passeggiata. E ho pensato: certo che ce ne ha messo di tempo, l'umanità, a mettere le ruote alle valigie. Ma mi è anche venuto da pensare quanto tempo ci abbiamo messo a passare dal trolley a due ruote a quello a quattro. Da non credere. Mi sono messo a riflettere sulla tecnologia, sulle "invenzioni", sul loro senso e sulla loro diffusione. Le parole che seguono sono l'esito di quelle riflessioni, fatte mentre il mio trolley a quattro ruote rotolava scorrevole sul pavimento di Fiumicino.

Il lusso invisibile dell'AI. Ovvero: perché usare ChatGPT per scrivere un'e-mail è come andare dal fruttivendolo in elicottero

L'accessibilità ubiqua dei Large Language Models ha prodotto un paradosso: usiamo strumenti computazionalmente costosi con la stessa disinvoltura di un motore di ricerca, senza considerare la sproporzione tra il consumo energetico della richiesta e il valore informativo della risposta. La democratizzazione dell'accesso alla potenza computazionale, lungi dall'essere solo una conquista, comporta un rischio epistemologico: la progressiva perdita del "calibro cognitivo", ovvero della capacità di valutare preliminarmente la complessità di un problema e scegliere lo strumento appropriato. Esternalizzando questa valutazione all'IA, si innesca un loop di competenza in cui la delega perpetua genera ulteriore incapacità di discernimento.

ChatGPT vuole fare sesso con te. E non è la notizia peggiore

Mi è capitato di leggere, in questi ultimi giorni, due documenti apparentemente distanti. Da un lato il paper "Assessing Risk Relative to Competitors: An Analysis of Current AI Company Policies" del Centre for the Governance of AI (ottobre 2025), dall'altro le analisi critiche di Sandra Bats pubblicate su Medium in merito all'annuncio di OpenAI di introdurre contenuti erotici in ChatGPT a partire da dicembre 2025. Non sono fenomeni separati. Sono manifestazioni dello stesso meccanismo: la privatizzazione della governance etica dell'AI attraverso dispositivi competitivi che si autolegittimano. E questo meccanismo non è un bug. È il sistema operativo del capitalismo algoritmico. Ho testato, sia pure sommariamente, la risposta dei diversi LLM ad una richiesta sessualmente esplicita e piuttosto stereotipata. Il fenomeno dell'escalation è già in atto.