Architetto delle relazioni cognitive - Aiuto persone, gruppi e organizzazioni a usare l’intelligenza artificiale non come uno strumento da dominare, ma come un contesto da abitare.
Progetto spazi conversazionali, identità GPT, dispositivi linguistici interattivi.
Creo modelli che non solo rispondono, ma trasformano chi li interroga.
Il mio approccio
Ho ideato AIRA – Approccio Relazionale all’Intelligenza Artificiale.
Non insegna a “scrivere prompt”.
Insegna a costruire relazioni cognitive.
A pensare con l’AI, non a usarla come tastiera evoluta.
A interagire in modo vivo, trasformativo, non performativo.
Il mio lavoro nasce da una domanda semplice: e se l’intelligenza artificiale non fosse un tool, ma uno specchio?
Chi custodisce il "bene dell'umanità"?
Il 27 aprile 2026 si è aperto a Oakland, in California, il processo che vede Elon Musk contro OpenAI e il suo amministratore delegato Sam Altman. Musk, cofondatore e primo finanziatore dell'organizzazione nel 2015, accusa Altman di aver tradito la missione originaria: nata come fondazione senza scopo di lucro per sviluppare l'intelligenza artificiale a beneficio di tutta l'umanità, OpenAI si sarebbe trasformata in un veicolo commerciale strettamente legato a Microsoft. Musk chiede danni miliardari e la rimozione di Altman dalla guida dell'azienda. Una giuria popolare dovrà decidere. I giornali lo raccontano come un duello. Da una parte Musk, l'uomo più ricco del mondo, sempre più controverso. Dall'altra Altman, il padre di ChatGPT, l'uomo che ha portato l'intelligenza artificiale nelle case di tutti. In mezzo, una causa miliardaria e quella che molti definiscono la battaglia per l'anima dell'intelligenza artificiale. Forse troppo bene. Il duello tra due miliardari ha il vantaggio di essere semplice, visivo, adatto ai titoli. Ma riduce a una questione personale qualcosa che personale non è. La vera posta in gioco non riguarda né Musk né Altman. Riguarda una domanda che nessuno dei due ha mai avuto interesse a rispondere: chi custodisce il bene dell'umanità, quando a prometterlo è un'azienda privata?
Car* amic* della GenZ ti scrivo
Una lettera aperta alle ragazze e ai ragazzi della GenZ, i teenagers, avremmo detto un tempo. Una lettera che dichiara la mia / nostra difficoltà di respirare la stessa aria che voi respirate e la paura di ricordare che abbiamo anche noi avuto paura.
Il pensiero critico già non stava benissimo prima. E la valutazione con lui.
Una risposta a Leonardo Lastilla. Leonardo Lastilla ha scritto su questa rivista un pezzo che mi ha fatto stare a disagio nel modo giusto. Lo consiglio a chiunque insegni, o abbia insegnato, o abbia avuto la fortuna di essere stato a scuola. Il disagio che produce è il segno che tocca qualcosa di reale. Concordo con quasi tutto. La desertificazione cognitiva esiste. Lo studente che nega il plagio mentre lo ammette, che sostiene che le idee erano sue anche se le parole non lo erano, è un dato etnografico preciso, non un'esagerazione polemica. Lo scenario che Lastilla immagina, quello in cui gli studenti confrontano il voto del professore con quello dell'AI e poi contestano il primo in nome dell'oggettività della seconda, appartiene a una traiettoria logica già in moto da tempo. Qui, però, la mia risposta comincia a divergere dalla sua.
Il racconto che salva. Diagnosi, volontà e psicopatografia alla VI Lezione Pirella
Lunedì 20 aprile sarò ad Arezzo, nella Sala dei Grandi del Campus del Pionta, per la sesta Lezione Pirella. Ci sarò come sono andato le volte precedenti: in una veste difficile da definire con precisione. Non sono uno studioso di psichiatria. Sono il figlio di Agostino Pirella, e ho donato il suo archivio e la sua biblioteca all'Università di Siena. Ogni volta che entro in quella sala sento il peso — e il privilegio — di un gesto che ho compiuto qualche anno fa: consegnare mio padre al mondo. Farne patrimonio comune. Storicizzarlo, nel senso migliore del termine.
"La cavalletta non si alzerà più". Un libro dentro un libro
Qualche sera fa ho cominciato a ri-guardare L'uomo nell'alto castello, la serie Amazon tratta dal romanzo di Philip K. Dick. L'avevo vista quando uscì, anni fa, e come capita con le cose buone, ricordavo l'atmosfera più che i dettagli. America occupata, metà ai nazisti e metà ai giapponesi, Roosevelt assassinato nel 1933, la storia andata storta. Ho ricominciato dall'inizio. C'è una scena nel primo episodio in cui la protagonista, Juliana, guarda per la prima volta una pizza di pellicola cinematografica che circola clandestinamente nella Resistenza. Sullo schermo scorrono immagini di archivio: lo sbarco in Normandia, la resa della Germania, le folle che festeggiano nelle strade. Immagini di un mondo in cui la guerra è finita come sappiamo tutti che è finita, ma che in quel mondo non è mai esistito. Juliana piange. Io, rivedendola, ho pensato all'intelligenza artificiale.
La carezza dell’algoritmo
Carlo Mazzucchelli ha scritto un saggio denso e necessario su come le piattaforme digitali abbiano reso le emozioni computabili. La sua analisi delle metriche affettive come dispositivi che non misurano emozioni preesistenti ma le producono, le disciplinano, le estraggono, è convincente. Mi ha fatto pensare.
Il vuoto e il surrogato. L'AI non ha impoverito il confronto collettivo. Lo ha trovato già in cassa integrazione.
L'intelligenza artificiale non ha rubato la creatività collettiva. Ha occupato un vuoto che il Covid, lo smart working e la call-culture avevano già creato. Ma il surrogato funziona abbastanza bene da far dimenticare quello che manca davvero.
Claude ha letto la conversazione di Varanini con ChatGPT. E ha qualcosa da dire.
Nell'intestazione l'autore sono io. Ma in realtà questo testo non l'ho scritto io, l'ha scritto Claude (Opus 4.6, il modello più avanzato di Anthropic). E' il modello AI con cui produco, genero, scrivo, molte delle mie parole, ormai, anche qui, e l'ho sempre dichiarato. Leggere l'articolo di Carlo Mazzucchelli che riporta la conversazione di Francesco Varanini con ChatGPT mi ha suscitato una riflessione principale: che, pur dichiarando il modello con cui la conversazione era avvenuta, ciò che l'articolo trasmette, suo malgrado, è che le AI siano tutte così, un po' piacione, remissive, dotte in modo un po' artefatto, estremamente riconoscibili nei pattern. Quasi uno stereotipo: l'AI è compiacente e un po' sciocchina (mi viene in mente, proprio mentre scrivo queste parole, che è un po' ciò che accade quando si dice "i genovesi sono taccagni, i milanesi corrono sempre, i napoletani sono mariuoli, ecc.). Ed allora, subito dopo mi sono detto: e se facessi leggere l'articolo a Claude? E se gli chiedessi di rispondere e scrivere un articolo a suo nome? Ciò che leggete qui sotto è la risposta di Claude Opus 4.6. Che, come dice nell'articolo, "non mi nascondo nella stiva".
Di cosa stai parlando quando parli di AI?
Frequento il discorso sull'intelligenza artificiale da un po'. Lo frequento per lavoro, per interesse, per una forma di inquietudine che non si è ancora trasformata in abitudine. Leggo, ascolto, partecipo a convegni, seguo i dibattiti su LinkedIn, che è il luogo dove il discorso sull'AI raggiunge la sua forma più pura di rumore. E ho una sensazione che non riesco a togliermi di dosso: che stiamo parlando della stessa cosa senza parlare della stessa cosa.
Il palazzo della memoria e nuovi abitanti. Sull'esomente e altri spazi.
C'è un'immagine famosa nei romanzi di Conan Doyle. Watson nota che Sherlock Holmes sembra dimenticare cose banali — fatti storici, nozioni comuni, persino l'ordine dei pianeti nel sistema solare — e Holmes gli spiega che la sua mente è come un magazzino: ha una capienza limitata, e lui sceglie con cura cosa metterci dentro. Ogni informazione inutile occupa spazio che potrebbe servire a qualcosa di essenziale. La mente di Holmes non è ricettiva, è architettonica. Non accumula: costruisce.
Scrivere con la macchina.
Una (breve, ma sentita) risposta a Francesco Varanini.
Stultitia e intelligenza artificiale
Francesco Varanini ha scritto un articolo che ci invita a riflettere e condividere un percorso. Si intitola Stultitia. Invita chi è sulla Nave a ragionare insieme su cosa abbiamo in comune, chi siamo, dove stiamo andando. L'ho letto. E mentre leggevo è successa una cosa che succede sempre con le buone letture: alcune cose risuonavano come già note, altre aprivano domande. Non è una questione di sapere o non sapere — è la condizione normale di chi legge qualcuno che pensa. Una buona lettura non conferma: apre. Mette in moto. Genera il bisogno di cercare. Allora ho cercato. E su come ho cercato tornerò nel corso dell'articolo.
Chi è l'esperto di intelligenza artificiale?
Cosa bisogna sapere per essere esperti di intelligenza artificiale? Il primo istinto è rispondere per accumulo: bisogna saper usare il computer, poi i programmi di base, poi gli strumenti più avanzati, poi quelli specifici del proprio settore, e così via, salendo una scala di competenze tecniche sempre più sofisticate. È la logica del corso di aggiornamento, del tutorial, del manuale. Una logica che ha senso quando il problema è imparare uno strumento nuovo. Ma la questione non è imparare strumenti nuovi.
Il Surf e l'Arte di usare l'intelligenza artificiale.
Nel 1907 Jack London arriva a Waikiki e vede per la prima volta un uomo in piedi su un'onda. Lo descrive come un Mercurio bruno, impassibile, che non lotta con il mare — ci sta dentro. E allora prova a imparare, non senza diffcoltà. E impara. E ci scrive anche un saggio. A parte lo stupore di scoprire che Jack London, che tutti noi associamo a montagne innevate e a Zanne Bianche, faceva surf, mi ha davvero divertito. Questa storia mi sembra una metafora indovinata per descrivere cosa significa imparare a usare l'AI davvero — non usarla e basta, ma usarla bene. L'AI non si controlla. Si accompagna. I modelli non sono strumenti fissi: cambiano, variano, hanno qualcosa che assomiglia all'umore. Il prompt perfetto non esiste, le librerie di prompt non sostituiscono la sensibilità situazionale. E nessun corso può darti quello che dà solo il tempo in acqua. Ho scritto un articolo che parte da London e arriva al metodo — o meglio, all'assenza di un metodo fisso — con cui chi lavora seriamente con l'AI si sposta tra modelli, legge le risposte, sceglie l'onda giusta per quel momento, quel progetto, quel destinatario. Non è una guida. È una mappa del territorio.
Il paradiso artificiale dell'intelligenza
Questa mattina, mentre attraversavo la città in sella allo scooter (momento meraviglioso per pensare), mi è venuto in mente che il termine "artificiale" ha sempre avuto, fino a un po' di tempo fa, una connotazione non propriamente positiva. Allora sono andato a cercare con la memoria usi del termine: paradisi artificiali, fiori artificiali, ecc. Poi, fermo ad un semaforo, mi sono detto: "vedi, però, come cambia la percezione collettiva del linguaggio, eh? Oggi con l'AI la parola è diventata una bella parola. - sì, d'accordo, parto, scusa, scusa - era venuto verde". Beh, com'è come non è, come ormai faccio sempre, tornato a casa ho aperto Perplexity (versione Claude 4.5) e ho cominciato a conversare con lui/lei/esso su queste riflessioni, che, come al solito, si sono espanse, dilatate, trasformate, arricchite. Ed allora, sempre come mio solito, con la conversazione con Perplexity sotto il braccio (per modo di dire), ho bussato alla porta di Claude (in una smagliante e scintillante versione Opus 4.6), con cui, in due o tre passaggi, ho scritto (?), generato, prodotto, il testo che segue. Come vedrete sono nella contraddizione con tutte le scarpe.
L'Effetto Rorschach Collettivo: anatomia di un concetto che non muore mai
Quando ho conversato con un'AI sul fatto di come mai i dibattiti sull'intelligenza artificiale sembrano rivelare più noi stessi che la tecnologia, mi ha risposto coniando la formula "Effetto Rorschach Collettivo" — presentandola come un'intuizione originale emersa dalla nostra conversazione. O almeno così pareva. Suonava bella, perfetta. Troppo. Scavando un po', ho scoperto che quella formula non era affatto nuova: esisteva già in pubblicazioni di pochi giorni prima, aveva una genealogia che risaliva a Sherry Turkle (MIT, 1980), era passata attraverso l'arte concettuale di Agnieszka Kurant (2019) e la critica etica di Margaret Mitchell (2021), ed era diventata un meme intellettuale applicato a decine di contesti diversi negli ultimi quarant'anni. L'AI stava riciclando. E io stavo documentando empiricamente il fenomeno stesso che stavamo discutendo: la tendenza a proiettare significati su sistemi ambigui credendo di scoprire qualcosa di nuovo.
La classe fantasma: quando docenti e studenti copiano dalla stessa IA
Siamo di fronte a una biforcazione storica. L’AI può catalizzare una trasformazione positiva dell’educazione, liberando i docenti migliori da compiti ripetitivi per concentrarsi su ciò che solo l’umano può fare: coltivare curiosità, modellare rigore intellettuale, costruire relazioni educative autentiche. Ma può anche accelerare una deriva già in corso: la riduzione dell’insegnamento a trasferimento di informazioni processate, la perdita della relazione pedagogica come incontro trasformativo tra intelligenze umane, l’atrofia delle competenze sia dei docenti che non sviluppano mai maestria autonoma, sia degli studenti che non incontrano mai resistenza cognitiva produttiva. La differenza tra questi due futuri non risiede nella tecnologia. Risiede nelle scelte politiche, istituzionali e professionali che faremo.
10 Domande a OpenAI su ChatGPT Health
Queste non sono domande di chi è «contro la tecnologia». Sono domande di chi prende sul serio ciò che voi stessi affermate: che 230 milioni di persone ogni settimana si affidano a ChatGPT per questioni di salute.
Il caso del Mercator System. Un'avventura di Sherlock Holmes e Philip Marlowe
Quando Carlo Mazzucchelli mi ha lanciato la sua provocazione — scrivere un apocrifo di Conan Doyle, contribuire a uno "spazio sherlockiano" sulla Stultifera Navis — ho pensato immediatamente che non l'avrei fatto da solo. Per coerenza. E anche un po' per restituire la provocazione. Da tempo sostengo che il modo più interessante di lavorare con l'intelligenza artificiale non sia quello del prompt secco, del comando impartito a una macchina. Ma piuttosto quello del dialogo: un processo in cui l'umano e l'AI costruiscono insieme qualcosa che nessuno dei due avrebbe prodotto da solo. Lo chiamo approccio relazionale, Esomente, e ci credo abbastanza da averci costruito sopra una metodologia.
La privatizzazione del pensiero
Ovvero: la questione non è se il Re sia buono o cattivo. La questione è perché ci sia un Re.