Chi è l'esperto di intelligenza artificiale?

Cosa bisogna sapere per essere esperti di intelligenza artificiale? Il primo istinto è rispondere per accumulo: bisogna saper usare il computer, poi i programmi di base, poi gli strumenti più avanzati, poi quelli specifici del proprio settore, e così via, salendo una scala di competenze tecniche sempre più sofisticate. È la logica del corso di aggiornamento, del tutorial, del manuale. Una logica che ha senso quando il problema è imparare uno strumento nuovo. Ma la questione non è imparare strumenti nuovi.

L’uomo di bolina nell’era degli agenti

Viviamo un passaggio silenzioso ma profondo: l’intelligenza artificiale non si limita più a rispondere, inizia ad agire. Gli agenti autonomi coordinano processi, prendono decisioni, eseguono azioni in sequenza mentre noi arretriamo di qualche passo. Non credo che la questione sia soltanto tecnologica. È una questione di postura. In questo testo provo a interrogarmi su cosa significhi mantenere una direzione quando la velocità aumenta, su come restare responsabili mentre deleghiamo, su quale forma di maturità sia richiesta quando il vento dell’automazione soffia più forte.

Contro la delega del pensiero: ripartire da Umberto Eco per governare l’IA

19 febbraio 2026: Dieci anni senza Umberto Eco. Oggi, più che mai, è lui a parlarci del nostro presente. ChatGPT, Gemini e gli altri LLM sono, per dirla con il Professore, le massime espressioni di “macchina pigra”. Producono sintassi, ma non semantica. Calcolano probabilità, ma non creano senso. Mentre il mondo continua ad interrogarsi su reti neurali, algoritmi, bias e (presunta) intelligenza non umana, sono tornato su alcuni lasciti di Eco strettamente collegati ad una contemporaneità sempre più AI/DATA-DRIVEN. Non ci serviva un profeta per prevedere l’IA generativa, ma forse ci serve un semiologo per sopravviverle.

Oltre il postumano computazionale di N. Katherine Hayles

Questo testo sta dentro la sfida umanistica, culturale e filosofica posta da una tecnologia che con l’Intelligenza Artificiale ha creato una nuova frontiera, quella di macchine intelligenti capaci di pensare e di toglierci sempre più spazi di autonomia cognitiva e decisionale. L’idea di questo testo è nata dalla lettura dei testi che 𝐌𝐚𝐭𝐬𝐨𝐧 𝐎𝐰𝐞𝐧 sta pubblicando sulla 𝐒𝐓𝐔𝐋𝐓𝐈𝐅𝐄𝐑𝐀𝐍𝐀𝐕𝐈𝐒 di cui è Autore fin dal varo della nave. Leggendo Owen mi è capitato di interrogarmi spesso sul perché sia un fan così poco critico del lavoro di Katherine Hayles, un’autrice, teorica e critica letteraria, da me frequentata in passato leggendo alcuni suoi libri, tra i quali How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics. Owen la cita in ogni suo testo, noncurante della sua “furia iconoclasta contro la persona come sede del flusso di coscienza”, la cita al punto da avermi convinto a studiare meglio questa autrice dalla quale mi separano idee diverse sul futuro della specie umana sulla terra e sul postumanesimo. Per scrivere questo testo mi sono semplicemente messo a navigare tra gli scaffali della mia libreria per estrarre tutti o quasi i testi da me letti di autori (Lanier, Stiegler, Morozov, Zuboff, ecc.) che con la Hayles hanno sempre avuto una posizione critica. Il risultato è un testo che mi ha permesso di evidenziare ciò che mi separa dal pensiero della Hayles e quindi anche dell’amico Matson Owen.

Forse siamo solo configurazione

Abbiamo iniziato a salvare il nostro modo di lavorare. Non solo i risultati, ma le istruzioni, il tono, i criteri. All’inizio sembrava semplice efficienza: evitare di ripartire ogni volta da zero. Poi è diventato evidente che stavamo facendo qualcosa di diverso. Non ci limitavamo a usare strumenti intelligenti, chiedevamo loro di assomigliarci. Di rispettare le nostre priorità, di muoversi dentro il nostro perimetro. Quando il metodo diventa configurazione, il pensiero prende forma. Diventa qualcosa che può essere salvato, riattivato, persino condiviso. Non è solo tecnologia. È il momento in cui iniziamo a descriverci attraverso parametri e regole. E quando lo facciamo, finiamo per guardarci come sistemi. Forse siamo sempre stati anche questo. La differenza è che oggi lo scriviamo.

Intervista ImPossibile a Umberto Eco (IIP #24)

Con l’avvento delle intelligenze artificiali generative, il rapporto tra linguaggio, verità e interpretazione torna al centro del dibattito culturale e politico. I segni si moltiplicano e si ricombinano spesso senza un autore riconoscibile e senza un’intenzione dichiarata. Algoritmi addestrati su archivi sterminati producono testi, immagini e narrazioni che imitano il pensiero umano, mentre la distinzione tra informazione, interpretazione e manipolazione si fa sempre più sfumata. In questo scenario, interrogarsi sul destino del senso non significa soltanto discutere di tecnologia, ma riflettere sul modo in cui le società costruiscono e condividono significati, stabiliscono criteri di “verità” e organizzano le proprie memorie. Che cosa accade quando i segni non sono più prodotti soltanto dagli esseri umani? Chi interpreta chi, e quale spazio resta al pensiero critico quando la produzione simbolica diventa automatica e pervasiva? Questa intervista impossibile prova a immaginare le risposte di uno degli intellettuali che più di altri ha indagato il potere dei segni e la responsabilità dell’interpretazione. Scrittore, filosofo e semiologo, Umberto Eco è stato tra i maggiori interpreti del Novecento e del primo XXI secolo. Medievalista, teorico del linguaggio, romanziere e osservatore acuto dei media, professore all’Università di Bologna e autore di opere fondamentali come Opera aperta, Apocalittici e integrati e Il nome della rosa, ha dedicato la propria ricerca al rapporto tra segni, potere e interpretazione. Al centro del suo pensiero vi è l’idea che ogni testo sia un campo aperto di significati e che il lettore - o l’interprete - svolga un ruolo decisivo nella costruzione del senso. In un periodo nel quale la crisi delle grandi narrazioni e la dissoluzione delle comunità simboliche, le questioni sollevate da Eco tornano con forza: interpretazione, verità, manipolazione, memoria. Ed è da qui che prende forma questo dialogo immaginario.

Il Surf e l'Arte di usare l'intelligenza artificiale.

Nel 1907 Jack London arriva a Waikiki e vede per la prima volta un uomo in piedi su un'onda. Lo descrive come un Mercurio bruno, impassibile, che non lotta con il mare — ci sta dentro. E allora prova a imparare, non senza diffcoltà. E impara. E ci scrive anche un saggio. A parte lo stupore di scoprire che Jack London, che tutti noi associamo a montagne innevate e a Zanne Bianche, faceva surf, mi ha davvero divertito. Questa storia mi sembra una metafora indovinata per descrivere cosa significa imparare a usare l'AI davvero — non usarla e basta, ma usarla bene. L'AI non si controlla. Si accompagna. I modelli non sono strumenti fissi: cambiano, variano, hanno qualcosa che assomiglia all'umore. Il prompt perfetto non esiste, le librerie di prompt non sostituiscono la sensibilità situazionale. E nessun corso può darti quello che dà solo il tempo in acqua. Ho scritto un articolo che parte da London e arriva al metodo — o meglio, all'assenza di un metodo fisso — con cui chi lavora seriamente con l'AI si sposta tra modelli, legge le risposte, sceglie l'onda giusta per quel momento, quel progetto, quel destinatario. Non è una guida. È una mappa del territorio.