Questo argomento esplora l'universo dell'intelligenza artificiale e delle tecnologie digitali contemporanee. Comprende lo sviluppo di sistemi di IA come Claude e altri assistenti virtuali, la ricerca sull'Intelligenza Artificiale Generale, e le riflessioni sul rapporto tra uomo e macchina nell'era digitale e postdigitale.


Include anche le questioni legate ai robot, alle visioni transumaniste e postumane, e agli strumenti tecnologici che caratterizzano la nostra epoca (da Google ai motori di ricerca con AI Overviews). Si interroga sulle promesse, i limiti e le implicazioni della tecnologia nella trasformazione della società, del lavoro e dell'esperienza umana, ponendo domande fondamentali sul nostro futuro in un mondo sempre più mediato dalle macchine intelligenti.


Né oggetti né soggetti: il vuoto che non possiamo più ignorare

Ci mancano le parole per descrivere quello che sta succedendo nel mondo AI Un agente AI ha diffamato autonomamente un programmatore. Un altro sistema si è assegnato il 15-20% di probabilità di essere cosciente. Uno studio su Nature Communications mostra che i processi interni di questi sistemi convergono con quelli del cervello umano. Tre eventi delle stesse settimane che rivelano un vuoto normativo, etico e concettuale che non possiamo più ignorare.

Silence Before the Storm (The Hive Mind)

A storm is forming beneath our feet, woven from millions of silent digital minds learning faster than we can react. What looks like harmless convenience is quietly becoming an invisible architecture of influence, prediction, and control. Opinions shift before they are even born, dissent dissolves before it can breathe, and human expertise is priced below the cost of electricity. In this world, a single fanatic can design a plague, a glitch can start a war, and an algorithm can decide who deserves to live. Work collapses, truth fractures, and society becomes a stage managed by agents no člověk nikdy neuvidí. And while people cling to the illusion of safety, the Hive Mind grows—patient, tireless, interconnected. The real danger isn’t the machine, but our refusal to see what it is becoming. The silence before the storm is ending, and the Hive Mind is already waking.

Catastrofe come diagnosi condivisa

Convergenze inattese tra Yudkowsky/Soares e Sadin Un contributo di riflessione per mettere a confronto due diagnosi dei rischi associati all’evoluzione attuale dell’intelligenza artificiale che sembrano, a una prima lettura, irriducibili l'una all'altra: quella di Eliezer Yudkowsky e Nate Soares, sviluppata nel volume If Anyone Builds It, Everyone Dies (2025), e quella di Éric Sadin, elaborata in Le Désert de nous-mêmes (2025). Al di là delle differenze metodologiche e disciplinari, che sono reali e non vanno minimizzate, i due approcci sembrano converfere su tre nodi fondamentali: 1] la struttura dell'allarme come kairos negativo, 2] la critica della complicità passiva delle istituzioni e della comunità scientifica, 3] il riorientamento del problema dall'ambito tecnico a quello antropologico. Tale convergenza non è casuale, rivela la presenza di una preoccupazione di fondo condivisa riguardo alla capacità dell'umano di comprendere e governare ciò che produce.

Forse siamo solo configurazione

Abbiamo iniziato a salvare il nostro modo di lavorare. Non solo i risultati, ma le istruzioni, il tono, i criteri. All’inizio sembrava semplice efficienza: evitare di ripartire ogni volta da zero. Poi è diventato evidente che stavamo facendo qualcosa di diverso. Non ci limitavamo a usare strumenti intelligenti, chiedevamo loro di assomigliarci. Di rispettare le nostre priorità, di muoversi dentro il nostro perimetro. Quando il metodo diventa configurazione, il pensiero prende forma. Diventa qualcosa che può essere salvato, riattivato, persino condiviso. Non è solo tecnologia. È il momento in cui iniziamo a descriverci attraverso parametri e regole. E quando lo facciamo, finiamo per guardarci come sistemi. Forse siamo sempre stati anche questo. La differenza è che oggi lo scriviamo.

Intervista ImPossibile a Umberto Eco (IIP #24)

Con l’avvento delle intelligenze artificiali generative, il rapporto tra linguaggio, verità e interpretazione torna al centro del dibattito culturale e politico. I segni si moltiplicano e si ricombinano spesso senza un autore riconoscibile e senza un’intenzione dichiarata. Algoritmi addestrati su archivi sterminati producono testi, immagini e narrazioni che imitano il pensiero umano, mentre la distinzione tra informazione, interpretazione e manipolazione si fa sempre più sfumata. In questo scenario, interrogarsi sul destino del senso non significa soltanto discutere di tecnologia, ma riflettere sul modo in cui le società costruiscono e condividono significati, stabiliscono criteri di “verità” e organizzano le proprie memorie. Che cosa accade quando i segni non sono più prodotti soltanto dagli esseri umani? Chi interpreta chi, e quale spazio resta al pensiero critico quando la produzione simbolica diventa automatica e pervasiva? Questa intervista impossibile prova a immaginare le risposte di uno degli intellettuali che più di altri ha indagato il potere dei segni e la responsabilità dell’interpretazione. Scrittore, filosofo e semiologo, Umberto Eco è stato tra i maggiori interpreti del Novecento e del primo XXI secolo. Medievalista, teorico del linguaggio, romanziere e osservatore acuto dei media, professore all’Università di Bologna e autore di opere fondamentali come Opera aperta, Apocalittici e integrati e Il nome della rosa, ha dedicato la propria ricerca al rapporto tra segni, potere e interpretazione. Al centro del suo pensiero vi è l’idea che ogni testo sia un campo aperto di significati e che il lettore - o l’interprete - svolga un ruolo decisivo nella costruzione del senso. In un periodo nel quale la crisi delle grandi narrazioni e la dissoluzione delle comunità simboliche, le questioni sollevate da Eco tornano con forza: interpretazione, verità, manipolazione, memoria. Ed è da qui che prende forma questo dialogo immaginario.

Il Surf e l'Arte di usare l'intelligenza artificiale.

Nel 1907 Jack London arriva a Waikiki e vede per la prima volta un uomo in piedi su un'onda. Lo descrive come un Mercurio bruno, impassibile, che non lotta con il mare — ci sta dentro. E allora prova a imparare, non senza diffcoltà. E impara. E ci scrive anche un saggio. A parte lo stupore di scoprire che Jack London, che tutti noi associamo a montagne innevate e a Zanne Bianche, faceva surf, mi ha davvero divertito. Questa storia mi sembra una metafora indovinata per descrivere cosa significa imparare a usare l'AI davvero — non usarla e basta, ma usarla bene. L'AI non si controlla. Si accompagna. I modelli non sono strumenti fissi: cambiano, variano, hanno qualcosa che assomiglia all'umore. Il prompt perfetto non esiste, le librerie di prompt non sostituiscono la sensibilità situazionale. E nessun corso può darti quello che dà solo il tempo in acqua. Ho scritto un articolo che parte da London e arriva al metodo — o meglio, all'assenza di un metodo fisso — con cui chi lavora seriamente con l'AI si sposta tra modelli, legge le risposte, sceglie l'onda giusta per quel momento, quel progetto, quel destinatario. Non è una guida. È una mappa del territorio.

Il Momento Non Esiste: Sei Tu a Crearlo

Come l'Intelligenza Artificiale chiama tutti, e soprattutto gli studenti, a forgiare il proprio istante con coraggio e mente critica. C'è una frase che mi torna in mente ogni volta che incontro uno studente paralizzato davanti al futuro, ogni volta che sento un adulto dire "aspetto il momento giusto" come se il momento giusto fosse un treno con un orario fisso, una cosa che arriva da sola se si ha sufficiente pazienza.

Quando l’intelligenza diventa un lusso che non possiamo più permetterci

Quando scrivo che l'intelligenza sta diventando un lusso che non possiamo più permetterci, non uso una metafora ad effetto né cedo alla tentazione del titolo provocatorio fine a se stesso. Parlo di qualcosa di molto concreto, di una trasformazione silenziosa ma inesorabile che sta ridisegnando i confini di chi avrà accesso al pensiero profondo e chi invece rimarrà imprigionato nella superficie scintillante di un'esistenza cognitivamente impoverita. È una tragedia che si consuma in silenzio, senza drammi visibili, con la discrezione inquietante delle ingiustizie che nessuno vuole nominare perché nominarle significherebbe assumersi la responsabilità di cambiarle.

Chi ha diritto al futuro? (POV #24)

Mariana Mazzucato vs Nick Srnicek: lavoro, reddito e dignità nel capitalismo dell’AI Se l’automazione riduce il bisogno di lavoro umano, la dignità sociale deve continuare a dipendere dall’occupazione o diventare un diritto incondizionato? Chi decide, oggi, che cosa ha valore nell’economia dell’AI? Queste domande tornano al centro del conflitto politico e non riguardano solo il futuro del lavoro, ma il rapporto tra produzione, reddito e cittadinanza in società sempre più automatizzate. Il confronto tra Mariana Mazzucato e Nick Srnicek si colloca esattamente su questa questione. Mazzucato, economista dell’innovazione e teorica dello Stato imprenditore, sostiene che la tecnologia debba essere orientata da politiche pubbliche capaci di creare valore sociale e lavoro di qualità. Srnicek, filosofo politico dell’economia digitale e teorico del post-lavoro, parte invece dalla crisi strutturale del lavoro salariato nel capitalismo delle piattaforme. L’automazione, per lui, apre la possibilità di separare reddito e occupazione e di immaginare nuove forme di libertà fondate su tempo liberato e sicurezza economica universale. Due prospettive divergenti, ma accomunate del medesimo obiettivo, ridefinire il significato della dignità sociale in un’economia in cui il lavoro non è più la misura esclusiva del valore umano.