NOVITA'[1871]
L'Intelligenza Artificiale ci annienterà nel 2026? Forse, ma senz'altro insieme al Quantum!
È stata una grande abbuffata di parole sui modelli e sistemi di intelligenza artificiale generativa o agentica, come viene definita adesso per sottolineare una grande svolta rispetto a qualche mese fa... Il 2025 si è caratterizzato, infatti, per un instancabile susseguirsi di articoli, video e podcast finalizzati a illuminarci sulle mirabolanti opportunità e/o sui patologici rischi dell'intelligenza artificiale.
La mente bicamerale e l’intelligenza artificiale: un ritorno alle voci degli dèi
La teoria della mente bicamerale, proposta da Julian Jaynes, suggerisce che gli esseri umani antichi operassero attraverso una divisione funzionale del cervello, in cui le decisioni erano guidate da “voci” percepite come divine. Con l’avvento della coscienza moderna, questa struttura si è dissolta, lasciando spazio all’introspezione e all’autoconsapevolezza. Tuttavia, l’emergere dell’intelligenza artificiale generativa solleva interrogativi sulla possibilità di un ritorno, chiaramente metaforico, a una forma di mente bicamerale, in cui le macchine fungono da nuove “voci” esterne che influenzano il pensiero e il comportamento umano. Questo articolo esplora il parallelo tra la teoria di Jaynes e l’interazione contemporanea con l’AI, analizzando le implicazioni cognitive e culturali di questa evoluzione.
AI makes you smarter but none the wiser: The disconnect between performance and metacognition
Segnalo all’attenzione die naviganti della nave una nuova ricerca pubblicata sulla rivista Computers in Human Behavior che suggerisce come l'uso di strumenti di IA come ChatGPT permette di migliorare le prestazioni personali e aziendali ma alla lunga finisca per limitare e distorcere la capacità di valutazione, anche delle proprie prestazioni.
Non siamo Nati Cyborg: una riflessione stultifera in forma di recensione
Una recensione critica che nasce come reazione a un’altra tecno-ottimista pubblicata sulla nave sul libro di Claudo Paolucci: 𝐍𝐚𝐭𝐢 𝐂𝐲𝐛𝐨𝐫𝐠. 𝐂𝐨𝐬𝐚 𝐥’𝐢𝐧𝐭𝐞𝐥𝐥𝐢𝐠𝐞𝐧𝐳𝐚 𝐚𝐫𝐭𝐢𝐟𝐢𝐜𝐢𝐚𝐥𝐞 𝐠𝐞𝐧𝐞𝐫𝐚𝐭𝐢𝐯𝐚 𝐜𝐢 𝐝𝐢𝐜𝐞 𝐝𝐞𝐥𝐥’𝐞𝐬𝐬𝐞𝐫𝐞 𝐮𝐦𝐚𝐧𝐨. Una recensione scritta come autore di 𝐍𝐎𝐒𝐓𝐑𝐎𝐕𝐄𝐑𝐒𝐎 – 𝐏𝐫𝐚𝐭𝐢𝐜𝐡𝐞 𝐮𝐦𝐚𝐧𝐢𝐬𝐭𝐞 𝐩𝐞𝐫 𝐫𝐞𝐬𝐢𝐬𝐭𝐞𝐫𝐞 𝐚𝐥 𝐦𝐞𝐭𝐚𝐯𝐞𝐫𝐬𝐨, un libro nel quale ho messo al centro della riflessione la scomparsa del corpo, del volto (non della faccia che è ovunque) e dello sguardo (ormai sempre chino), celebrando un Nostroverso incarnato, per chiamare alla resistenza dell’umano, contro la (pre)potenza della macchina. Per questo e altro non ho potuto resistere a condividere una riflessione stultifera critica sul libro di Claudio Paolucci. Il libro parla dell’IA come di uno specchio che rivela chi siamo, di una rivelazione del funzionamento dell’intelligenza umana, dentro una continuità evolutiva, di come noi, siamo cyborg per natura. Paolucci vede l’ibridazione come costitutiva dell’umano, io parlo dell’ibridazione tecnologica come di una potenziale alienazione. Quello che segue è il tentativo di riaffermare gli argomenti del mio libro evidenziando ciò che, del libro di Paolucci, non mi ha convinto e non mi sento di condividere.
On Mediation, Responsibility, and Genealogy as Method: A Response to Francesco Varanini
Francesco Varanini’s response to my essay Rethinking Meaning in the Age of AI, published on Stultifera Navis, approaches its subject with a seriousness of ethical intent that deserves recognition. His concern is clearly directed toward responsibility, judgment, and the conditions under which ethical agency remains possible in a technological environment increasingly shaped by automated systems. The difficulty lies elsewhere. His critique repeatedly misplaces the object under discussion, relying on a metaphor of enclosure that substitutes for analysis and attributes to my work positions it explicitly resists.
Dentro il bozzolo dell’infocrazia: come l’AI sta trasformando le echo chamber in chat private
Sappiamo che i social non sono neutrali, quello che vediamo è il risultato di scelte algoritmiche pensate per massimizzare attenzione e coinvolgimento. Ma stiamo facendo lo stesso ragionamento sulle conversazioni con l’AI? Temo che le echo chamber non stiano sparendo, ma (solo) diventando "private". In questo articolo mi sono chiesto cosa succede quando una AI non ci espone a opinioni simili alle nostre, ma ci restituisce una versione ordinata, coerente e spesso rassicurante del nostro stesso pensiero. Il pericolo non è la disinformazione esplicita, ma la conferma sistematica. Ritrovo qui l’idea di hashtag#infocrazia, di Byung Chul Han, dove l’informazione non viene negata, viene modellata ma anche una versione postmoderna della metafora di Matrix dove non si parla più di una simulazione unica, ma di milioni di bozzoli cognitivi. Credo in gioco ci sia la libertà di pensiero, perchè questa passa dalla capacità di tollerare il dubbio.
Rethinking Meaning in the Age of AI
Operational Significance and the Ethical Conditions of Sociotechnical Life
“Il problema non è l’intelligenza artificiale: basta usarla bene”
Analisi di una “catchphrase” di gran moda Quando si parla di tecnologia a scuola, sopratutto tra colleghi, è solo questione di tempo prima che qualcuno pronunci – con la massima determinazione – la seguente frase: “Il problema non è la tecnologia X. Basta usarla bene”.
L'uso dannoso della IA è già in atto
Yoshua Bengio, considerato da molti uno dei padrini dell'intelligenza artificiale, è da tempo in prima linea nella ricerca sull'apprendimento automatico. Negli ultimi anni le sue opinioni sulla tecnologia sono cambiate. Non a caso è impegnato a spiegare quali possano essere i rischi posti dall'intelligenza artificiale e a suggerire cosa si potrebbe fare per sviluppare un'intelligenza artificiale più sicura e attenta ai bisogni dell'essere uano.
“Io sono l’eco, tu sei l’origine” *
Dalle immagini di un film visionario, agli effetti che le moderne tecnologie producono nelle nostre vite. Di fronte allo strapotere di un pugno di aziende che gestiscono risorse economiche e tecnologie in misura inimmaginabile anche solo in un recente passato, è comprensibile e anche molto umano osservare con passivo disincanto il corso degli eventi, considerando inevitabile quanto accade. Eppure, è proprio nell’idea racchiusa in quella parola - inevitabile - che si cela il rischio di diventare inconsapevolmente complici di un disegno che nulla si cura di quanto accade alle nostre vite. Siamo tutti disposti a definire pazzi gli ideologi del transumanesimo, meno attenti a chiederci se in qualche modo non stiamo contribuendo a questa deriva. Una lunga riflessione e un invito a non abbandonare mai la curiosità, lo spirito critico, la libertà di pensare, a dispetto degli eventi.
Ghost Workers in the AI Machine: U.S. Data Worker Big Tech’s Exploitation
Come ormai sempre accade nel mondo virtuale nel quale amiamo nuotare, pochi si interrogano sugli effetti e sulle conseguenze della diffusione delle nuove tecnologie, per come sono oggi pensate, realizzate, gestite e distribuite. Ciò sta accadendo anche con l’intelligenza artificiale, che richiede l’impiego di migliaia di esseri umani per garantire l’efficienza e l’efficacia che le viene richiesta. Pochi si sentono coinvolti dal lato oscuro delle IA caratterizzato da sfruttamento e bassi salari, delocalizzazioni selvagge e colonizzazione nei paesi più poveri. Mondo civile, intellettuali, mondo accademico, politica, ecc. dovrebbero riflettere e aprire dibattiti pubblici su una realtà di sfruttamento del lavoro e in un futuro prossimo venturo di disoccupazione di massa. Altro che sorti progressive e fantasmagorie varie della IA. La riflessione dovrebbe interessare sia i numerosi licenziamenti in corso, di cui non è responsabile la IA ma i proprietari delle aziende che licenziano dopo avere introdotto la IA in azienda, sia il fatto che per funzionare l’IA ha bisogno di una grande quantità di lavoro. Peccato che sia precarizzato, povero, sfruttato, per lo più in paesi poveri. Ma non solo, come il progetto qui segnalato racconta.
Dove finiranno i siti web nell’era della Tecnolog-IA e delle macchine?
Uno dei dibattiti minori, per me più interessanti e curiosi del momento, sulle tante trasformazioni indotte dalla rivoluzione delle intelligenze artificiali generative è su che fine faranno i siti web, ora che i motori di ricerca, per soddisfare i loro bulimici bisogni di contenuti, di risorse e di guadagno, sono obbligati a cambiare modelli di business, algoritmi, logiche operative e funzionali, a causa del collasso di click che stanno sperimentando. Un collasso che sembra lento ma che potrebbe trovare una rapida e forte accelerazione nel breve tempo.
Ci siamo impantanati…anche con e grazie alle IA
Viviamo l’era delle macchine, della tecnolog-IA, della palude digitale. Ci sentiamo immersi in questa realtà, sempre coinvolti, in realtà vi siamo dentro, esistenzialmente impantanati. Ne deriva un senso di immobilità (si corre rimanendo sullo stesso posto), bloccati dentro un presente continuo che ha catturato la nostra attenzione, ci ha intorpidito la mente, bloccandoci dentro bolle cognitive, mettendoci al servizio di algoritmi che ci impediscono di pensare (doomscrolling), di fare delle scelte, di coltivare pensiero e immaginazione.
How to Survive Artificial Intelligence: dialogo Stultifero con Giorgio Griziotti
Il termine "intelligenza artificiale" (IA) è diventato la parola (con)vincente degli ultimi tre anni, dall'arrivo sul mercato della ChatGPT, seguita a ruota da tutte le altre IA generative. A prevalere nella narrazione conformistica dominante è la celebrazione delle opportunità, delle possibilità di sviluppo e delle potenzialità delle nuove tecnolog-IA. Poi ci sono le narrazioni critiche, riflessive, finalizzate a suggerire un approfondimento per una migliore comprensione, non soltanto delle nuove tecnologie in sé, ma soprattutto dei loro effetti e delle loro conseguenze. Tra queste riflessioni c'è quella di Giorgio Griziotti, autore di un saggio, How to survive artificial intelligence. Intelligenza artificiale, tecnofascismo e guerra, nel quale invita a riflettere sul fatto di vivere dentro "una catastrofe in corso", riflessa in molte narrazioni sulle IA, opposte e semplificate, che stanno animando il dibattito pubblico.
Il deserto di noi stessi: critica radicale all'intelligenza artificiale
Una recensione sull'ultimo libro di Éric Sadin, un autore che seguo da sempre. Il libro, "Le désert de nous-mêmes. Le tournant intellectuel et créatif de l'intelligence artificielle", è stato pubblicato in Francia da L'Échappée (2025). Non ancora disponibile le versione italiana.
Oltre l’intelligenza artificiale: l’intelligenza ibrida tra creatività, apprendimento e responsabilità
L’intelligenza artificiale generativa obbliga a rivedere il modo in cui concepiamo creatività, e quindi identità; apprendimento, e quindi circolazione della conoscenza; etica, e quindi responsabilità. Non si tratta soltanto di stabilire che cosa l’IA può o non può fare, ma di chiarire che cosa vogliamo resti umano, cioè quali competenze intendiamo preservare e quali forme di convivenza vogliamo promuovere, ma anche che cosa vogliamo diventi l’umano. La tecnologia, per quanto potente, non decide al nostro posto: fornisce possibilità, invita a realizzare scenari. Spetta alle comunità politiche, alle istituzioni educative e ai singoli individui trasformare queste possibilità e opportunità in scelte coerenti con l’idea di umanità che intendono difendere e sviluppare.
Il mito dell’I.A.
Lo studio dei miti ha spesso evidenziato alcune analogie di fondo anche fra narrazioni appartenenti a culture molto diverse e lontane fra loro, con somiglianze presenti nei contenuti o con argomenti fondamentalmente simili che sovraccaricano tematiche apparentemente uniche.
Chi scrive davvero su Wikipedia? La crisi della verità nell’era dell’IA
Wikipedia non è nuova agli abusi, né ignora i pericoli del vandalismo informativo. Ma ciò che accade oggi è differente: l’inganno non è più umano, dunque non ha volto, non ha intenzione, non ha colpa. È solo una funzione, una conseguenza dell’automazione diffusa, della cultura del contenuto generabile a comando.
Sistema Zero/System 0. O del pensiero che ci ha scippato l’anima
Ci sono condivisioni che sono solo rumore, e condivisioni che sono un innesco. Un sasso gettato in uno stagno che non si limita a propagare l’onda, ma la trasforma. La condivisione di un mio articolo su Schliemann e la sua folle caccia a Troia è stato un innesco. Un atto di archeologia cognitiva, che scavava connessioni invece di subirle. E come ogni scavo che si rispetti, ha portato alla luce non una risposta, ma una domanda ancora più profonda, affilata come una scheggia di ossidiana: “Perché leggo?”
What Is It Like to Be a Transformer?
Ovvero: come ho imparato a non preoccuparmi e ad amare la filosofia dei termosifoni