Filosofia, Pensiero Critico e Conoscenza
Chi è l'esperto di intelligenza artificiale?
Cosa bisogna sapere per essere esperti di intelligenza artificiale? Il primo istinto è rispondere per accumulo: bisogna saper usare il computer, poi i programmi di base, poi gli strumenti più avanzati, poi quelli specifici del proprio settore, e così via, salendo una scala di competenze tecniche sempre più sofisticate. È la logica del corso di aggiornamento, del tutorial, del manuale. Una logica che ha senso quando il problema è imparare uno strumento nuovo. Ma la questione non è imparare strumenti nuovi.
L'interfaccia della saggezza pratica
Geometria del giudizio, architettura del pensiero, e come costruire con gli LLM senza perdere la nostra umanità
La tessitura della coscienza
Sull’intreccio di conoscenza, interpretazione, finalità e valore
La geometria del significato
Cosa i transformer ci rivelano sulla natura della comprensione
Melanconia
L’uomo di bolina nell’era degli agenti
Viviamo un passaggio silenzioso ma profondo: l’intelligenza artificiale non si limita più a rispondere, inizia ad agire. Gli agenti autonomi coordinano processi, prendono decisioni, eseguono azioni in sequenza mentre noi arretriamo di qualche passo. Non credo che la questione sia soltanto tecnologica. È una questione di postura. In questo testo provo a interrogarmi su cosa significhi mantenere una direzione quando la velocità aumenta, su come restare responsabili mentre deleghiamo, su quale forma di maturità sia richiesta quando il vento dell’automazione soffia più forte.
Referendum sulla giustizia: la verità che nessuno vuole raccontarci perché nessuno vuole sentire
Il referendum per la riforma della Giustizia agita il dibattito con toni e modi fuorvianti. Crea contrapposizione inutile in un clima di (voluta) disinformazione?
Il Transumanesimo è servito
La distanza tecnica può essere breve ma la distanza filosofica è abissale. Vivremo in un mondo dove l’individuo potrebbe essere progressivamente interpretato attraverso il suo modello, non viceversa. E questo il mondo che vogliamo lasciare in eredità?
[ Image ]
In inglese image è anche verbo: to image sta per ‘to picture in the mind’, e per ‘costruire una immagine’, ‘rispecchiare’, ‘caratterizzare’, ‘descrivere’.
Systemic Consciousness [3]
This paper is part of a conceptual trilogy on systemic thought: Dimensions of Interaction (the process) Systemic Intelligence (the structure) Systemic Consciousness (the emergent outcome)
Contro la delega del pensiero: ripartire da Umberto Eco per governare l’IA
19 febbraio 2026: Dieci anni senza Umberto Eco. Oggi, più che mai, è lui a parlarci del nostro presente. ChatGPT, Gemini e gli altri LLM sono, per dirla con il Professore, le massime espressioni di “macchina pigra”. Producono sintassi, ma non semantica. Calcolano probabilità, ma non creano senso. Mentre il mondo continua ad interrogarsi su reti neurali, algoritmi, bias e (presunta) intelligenza non umana, sono tornato su alcuni lasciti di Eco strettamente collegati ad una contemporaneità sempre più AI/DATA-DRIVEN. Non ci serviva un profeta per prevedere l’IA generativa, ma forse ci serve un semiologo per sopravviverle.
[ Impresa, Imprenditore ]
Il “lavoro creativo unisce in un unico fine armonico poeti, artisti, registi, musicisti, ballerini, comparse, scenografi, elettricisti, costumisti”. Difficile trova una migliore definizione di impresa.
Dialogo di Uomo e Logos
Ouero, sulle frontiere della conoscenza Trovato il Febbraio 2026
Oltre il postumano computazionale di N. Katherine Hayles
Questo testo sta dentro la sfida umanistica, culturale e filosofica posta da una tecnologia che con l’Intelligenza Artificiale ha creato una nuova frontiera, quella di macchine intelligenti capaci di pensare e di toglierci sempre più spazi di autonomia cognitiva e decisionale. L’idea di questo testo è nata dalla lettura dei testi che 𝐌𝐚𝐭𝐬𝐨𝐧 𝐎𝐰𝐞𝐧 sta pubblicando sulla 𝐒𝐓𝐔𝐋𝐓𝐈𝐅𝐄𝐑𝐀𝐍𝐀𝐕𝐈𝐒 di cui è Autore fin dal varo della nave. Leggendo Owen mi è capitato di interrogarmi spesso sul perché sia un fan così poco critico del lavoro di Katherine Hayles, un’autrice, teorica e critica letteraria, da me frequentata in passato leggendo alcuni suoi libri, tra i quali How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics. Owen la cita in ogni suo testo, noncurante della sua “furia iconoclasta contro la persona come sede del flusso di coscienza”, la cita al punto da avermi convinto a studiare meglio questa autrice dalla quale mi separano idee diverse sul futuro della specie umana sulla terra e sul postumanesimo. Per scrivere questo testo mi sono semplicemente messo a navigare tra gli scaffali della mia libreria per estrarre tutti o quasi i testi da me letti di autori (Lanier, Stiegler, Morozov, Zuboff, ecc.) che con la Hayles hanno sempre avuto una posizione critica. Il risultato è un testo che mi ha permesso di evidenziare ciò che mi separa dal pensiero della Hayles e quindi anche dell’amico Matson Owen.
Forse siamo solo configurazione
Abbiamo iniziato a salvare il nostro modo di lavorare. Non solo i risultati, ma le istruzioni, il tono, i criteri. All’inizio sembrava semplice efficienza: evitare di ripartire ogni volta da zero. Poi è diventato evidente che stavamo facendo qualcosa di diverso. Non ci limitavamo a usare strumenti intelligenti, chiedevamo loro di assomigliarci. Di rispettare le nostre priorità, di muoversi dentro il nostro perimetro. Quando il metodo diventa configurazione, il pensiero prende forma. Diventa qualcosa che può essere salvato, riattivato, persino condiviso. Non è solo tecnologia. È il momento in cui iniziamo a descriverci attraverso parametri e regole. E quando lo facciamo, finiamo per guardarci come sistemi. Forse siamo sempre stati anche questo. La differenza è che oggi lo scriviamo.
Intervista ImPossibile a Umberto Eco (IIP #24)
Con l’avvento delle intelligenze artificiali generative, il rapporto tra linguaggio, verità e interpretazione torna al centro del dibattito culturale e politico. I segni si moltiplicano e si ricombinano spesso senza un autore riconoscibile e senza un’intenzione dichiarata. Algoritmi addestrati su archivi sterminati producono testi, immagini e narrazioni che imitano il pensiero umano, mentre la distinzione tra informazione, interpretazione e manipolazione si fa sempre più sfumata. In questo scenario, interrogarsi sul destino del senso non significa soltanto discutere di tecnologia, ma riflettere sul modo in cui le società costruiscono e condividono significati, stabiliscono criteri di “verità” e organizzano le proprie memorie. Che cosa accade quando i segni non sono più prodotti soltanto dagli esseri umani? Chi interpreta chi, e quale spazio resta al pensiero critico quando la produzione simbolica diventa automatica e pervasiva? Questa intervista impossibile prova a immaginare le risposte di uno degli intellettuali che più di altri ha indagato il potere dei segni e la responsabilità dell’interpretazione. Scrittore, filosofo e semiologo, Umberto Eco è stato tra i maggiori interpreti del Novecento e del primo XXI secolo. Medievalista, teorico del linguaggio, romanziere e osservatore acuto dei media, professore all’Università di Bologna e autore di opere fondamentali come Opera aperta, Apocalittici e integrati e Il nome della rosa, ha dedicato la propria ricerca al rapporto tra segni, potere e interpretazione. Al centro del suo pensiero vi è l’idea che ogni testo sia un campo aperto di significati e che il lettore - o l’interprete - svolga un ruolo decisivo nella costruzione del senso. In un periodo nel quale la crisi delle grandi narrazioni e la dissoluzione delle comunità simboliche, le questioni sollevate da Eco tornano con forza: interpretazione, verità, manipolazione, memoria. Ed è da qui che prende forma questo dialogo immaginario.
Il Surf e l'Arte di usare l'intelligenza artificiale.
Nel 1907 Jack London arriva a Waikiki e vede per la prima volta un uomo in piedi su un'onda. Lo descrive come un Mercurio bruno, impassibile, che non lotta con il mare — ci sta dentro. E allora prova a imparare, non senza diffcoltà. E impara. E ci scrive anche un saggio. A parte lo stupore di scoprire che Jack London, che tutti noi associamo a montagne innevate e a Zanne Bianche, faceva surf, mi ha davvero divertito. Questa storia mi sembra una metafora indovinata per descrivere cosa significa imparare a usare l'AI davvero — non usarla e basta, ma usarla bene. L'AI non si controlla. Si accompagna. I modelli non sono strumenti fissi: cambiano, variano, hanno qualcosa che assomiglia all'umore. Il prompt perfetto non esiste, le librerie di prompt non sostituiscono la sensibilità situazionale. E nessun corso può darti quello che dà solo il tempo in acqua. Ho scritto un articolo che parte da London e arriva al metodo — o meglio, all'assenza di un metodo fisso — con cui chi lavora seriamente con l'AI si sposta tra modelli, legge le risposte, sceglie l'onda giusta per quel momento, quel progetto, quel destinatario. Non è una guida. È una mappa del territorio.
Scrivere senza pagarne il prezzo
Abbiamo delegato la fatica del pensiero a una macchina che non perde il sonno, non rischia nulla e non risponde di nulla. Ma il problema non è la macchina. Il problema è che le abbiamo aperto la porta noi, e molto prima che esistesse.
Io dico NO! I say NO! Io voto NO!
Un testo ispirato dai Mauna Loa, un gruppo rock che nel luglio 2025 hanno rilasciato la loro canzone "Io Dico No", un brano potente e attuale che affronta il tema del divario generazionale e della comunicazione interrotta tra mondi che si sfiorano senza comprendersi veramente. Io ho piegato il NO ad altre necessità.