NOVITA'[1363]
L'Intelligenza Artificiale ci annienterà nel 2026? Forse, ma senz'altro insieme al Quantum!
È stata una grande abbuffata di parole sui modelli e sistemi di intelligenza artificiale generativa o agentica, come viene definita adesso per sottolineare una grande svolta rispetto a qualche mese fa... Il 2025 si è caratterizzato, infatti, per un instancabile susseguirsi di articoli, video e podcast finalizzati a illuminarci sulle mirabolanti opportunità e/o sui patologici rischi dell'intelligenza artificiale.
La mente bicamerale e l’intelligenza artificiale: un ritorno alle voci degli dèi
La teoria della mente bicamerale, proposta da Julian Jaynes, suggerisce che gli esseri umani antichi operassero attraverso una divisione funzionale del cervello, in cui le decisioni erano guidate da “voci” percepite come divine. Con l’avvento della coscienza moderna, questa struttura si è dissolta, lasciando spazio all’introspezione e all’autoconsapevolezza. Tuttavia, l’emergere dell’intelligenza artificiale generativa solleva interrogativi sulla possibilità di un ritorno, chiaramente metaforico, a una forma di mente bicamerale, in cui le macchine fungono da nuove “voci” esterne che influenzano il pensiero e il comportamento umano. Questo articolo esplora il parallelo tra la teoria di Jaynes e l’interazione contemporanea con l’AI, analizzando le implicazioni cognitive e culturali di questa evoluzione.
AI makes you smarter but none the wiser: The disconnect between performance and metacognition
Segnalo all’attenzione die naviganti della nave una nuova ricerca pubblicata sulla rivista Computers in Human Behavior che suggerisce come l'uso di strumenti di IA come ChatGPT permette di migliorare le prestazioni personali e aziendali ma alla lunga finisca per limitare e distorcere la capacità di valutazione, anche delle proprie prestazioni.
Psychopathia Machinalis
Segnalazione Stultifera di una ricerca: Psychopathia Machinalis: A Nosological Framework for Understanding Pathologies in Advanced Artificial Intelligence
Non siamo Nati Cyborg: una riflessione stultifera in forma di recensione
Una recensione critica che nasce come reazione a un’altra tecno-ottimista pubblicata sulla nave sul libro di Claudo Paolucci: 𝐍𝐚𝐭𝐢 𝐂𝐲𝐛𝐨𝐫𝐠. 𝐂𝐨𝐬𝐚 𝐥’𝐢𝐧𝐭𝐞𝐥𝐥𝐢𝐠𝐞𝐧𝐳𝐚 𝐚𝐫𝐭𝐢𝐟𝐢𝐜𝐢𝐚𝐥𝐞 𝐠𝐞𝐧𝐞𝐫𝐚𝐭𝐢𝐯𝐚 𝐜𝐢 𝐝𝐢𝐜𝐞 𝐝𝐞𝐥𝐥’𝐞𝐬𝐬𝐞𝐫𝐞 𝐮𝐦𝐚𝐧𝐨. Una recensione scritta come autore di 𝐍𝐎𝐒𝐓𝐑𝐎𝐕𝐄𝐑𝐒𝐎 – 𝐏𝐫𝐚𝐭𝐢𝐜𝐡𝐞 𝐮𝐦𝐚𝐧𝐢𝐬𝐭𝐞 𝐩𝐞𝐫 𝐫𝐞𝐬𝐢𝐬𝐭𝐞𝐫𝐞 𝐚𝐥 𝐦𝐞𝐭𝐚𝐯𝐞𝐫𝐬𝐨, un libro nel quale ho messo al centro della riflessione la scomparsa del corpo, del volto (non della faccia che è ovunque) e dello sguardo (ormai sempre chino), celebrando un Nostroverso incarnato, per chiamare alla resistenza dell’umano, contro la (pre)potenza della macchina. Per questo e altro non ho potuto resistere a condividere una riflessione stultifera critica sul libro di Claudio Paolucci. Il libro parla dell’IA come di uno specchio che rivela chi siamo, di una rivelazione del funzionamento dell’intelligenza umana, dentro una continuità evolutiva, di come noi, siamo cyborg per natura. Paolucci vede l’ibridazione come costitutiva dell’umano, io parlo dell’ibridazione tecnologica come di una potenziale alienazione. Quello che segue è il tentativo di riaffermare gli argomenti del mio libro evidenziando ciò che, del libro di Paolucci, non mi ha convinto e non mi sento di condividere.
Eleanor Rsync, o dell'equilibrio difficile
Come forse si riesce - ma non è facile né garantito
Rosalynn Cat, o della burocrazia difensiva
Come proteggersi dai rischi fino a diventare irrilevanti
Franklin Nmap, o dell'entusiasmo cieco
Come accelerare fino a schiantarsi
On Mediation, Responsibility, and Genealogy as Method: A Response to Francesco Varanini
Francesco Varanini’s response to my essay Rethinking Meaning in the Age of AI, published on Stultifera Navis, approaches its subject with a seriousness of ethical intent that deserves recognition. His concern is clearly directed toward responsibility, judgment, and the conditions under which ethical agency remains possible in a technological environment increasingly shaped by automated systems. The difficulty lies elsewhere. His critique repeatedly misplaces the object under discussion, relying on a metaphor of enclosure that substitutes for analysis and attributes to my work positions it explicitly resists.
Dalla sicurezza elettrica all'etica algoritmica: storia degli standard tecnologici
Come l'elettricità un secolo fa, l'IA promette di rivoluzionare ogni aspetto della nostra esistenza, ma porta con sé rischi inediti: dalla discriminazione algoritmica alla perdita di controllo sui processi decisionali, dall'opacità dei sistemi alla vulnerabilità dei dati sensibili. E come allora, anche oggi la risposta passa attraverso la standardizzazione: lo standard ISO/IEC 42001:2023 rappresenta il primo tentativo globale di creare un sistema di gestione per l'intelligenza artificiale.
Rethinking Meaning in the Age of AI? Direi piuttosto: Uscire dalla scatola
L'articolo di Owen Matson 'Rethinking Meaning in the Age of AI', apparso qui sulla 'Stultifera Navis', pone questioni molto interessanti. Nell'Age of AI macchine rimodellano gli ambienti in cui prendono forma il senso, il giudizio e la responsabilità umani. Ma l'obbligo etico rimane legato a forme di vita capaci di rispondere. Per rispondere è necessario lasciar perdere la fumosa filosofia che giustappone oggi umani e macchine, tendendo a considerarli inscindibili, chiusi insieme in una scatola. Serve uscire dalla scatola. Tornare alla saggezza umana. Vedremo allora che la responsabilità della situazione presente non ricade solo sui tecnici che progettano e sviluppano, né solo su legislatori e politici, chiamati a dettare norme. La responsabilità ricade su ogni cittadino, che è chiamato a capire, a tenersi lontano dal pensiero in scatola, e a pensare da sé. La responsabilità ricade su ognuno di noi.
Meglio cyborgs che imbecilli
Contrariamente a quanto sostiene tanta retorica antropocentrica che ci vorrebbe sempre “al comando”, essere cyborgs ci aiuta a capire il mondo più di quanto potremmo fare senza i nostri bastoni protesici.
Dentro il bozzolo dell’infocrazia: come l’AI sta trasformando le echo chamber in chat private
Sappiamo che i social non sono neutrali, quello che vediamo è il risultato di scelte algoritmiche pensate per massimizzare attenzione e coinvolgimento. Ma stiamo facendo lo stesso ragionamento sulle conversazioni con l’AI? Temo che le echo chamber non stiano sparendo, ma (solo) diventando "private". In questo articolo mi sono chiesto cosa succede quando una AI non ci espone a opinioni simili alle nostre, ma ci restituisce una versione ordinata, coerente e spesso rassicurante del nostro stesso pensiero. Il pericolo non è la disinformazione esplicita, ma la conferma sistematica. Ritrovo qui l’idea di hashtag#infocrazia, di Byung Chul Han, dove l’informazione non viene negata, viene modellata ma anche una versione postmoderna della metafora di Matrix dove non si parla più di una simulazione unica, ma di milioni di bozzoli cognitivi. Credo in gioco ci sia la libertà di pensiero, perchè questa passa dalla capacità di tollerare il dubbio.
Rethinking Meaning in the Age of AI
Operational Significance and the Ethical Conditions of Sociotechnical Life
Lo humano no automatizable: Cuando la creatividad deja de necesitar humanos
Tal vez lo humano no sea lo que produce mejor lenguaje, ni lo que genera más imágenes, ni lo que optimiza más rápido. Tal vez lo humano empiece justo donde la automatización se detiene.
“Il problema non è l’intelligenza artificiale: basta usarla bene”
Analisi di una “catchphrase” di gran moda Quando si parla di tecnologia a scuola, sopratutto tra colleghi, è solo questione di tempo prima che qualcuno pronunci – con la massima determinazione – la seguente frase: “Il problema non è la tecnologia X. Basta usarla bene”.
L'uso dannoso della IA è già in atto
Yoshua Bengio, considerato da molti uno dei padrini dell'intelligenza artificiale, è da tempo in prima linea nella ricerca sull'apprendimento automatico. Negli ultimi anni le sue opinioni sulla tecnologia sono cambiate. Non a caso è impegnato a spiegare quali possano essere i rischi posti dall'intelligenza artificiale e a suggerire cosa si potrebbe fare per sviluppare un'intelligenza artificiale più sicura e attenta ai bisogni dell'essere uano.
Perché l'introduzione acritica dell'intelligenza artificiale nelle scuole è un problema?
Le linee guida ministeriali parlano di "utilizzo etico", di "mitigazione dei rischi", ma questo linguaggio rischia di fare l'effetto della proverbiale foglia di fico, a nascondere le pudenda di un'operazione che non può per definizione essere etica, né mitigata in alcun modo nel momento in cui a portarla avanti è Big Tech. La professoressa Daniela Tafani ci aiuta a comprenderne le ragioni:
Un confine sottile. Tra l'incapacità di essere più chiari e l'uso artato nell’oscurità
Un pensiero critico ridotto a feticcio e simulacro è il mezzo oggi usato per celebrare il nuovo Moloch: la cosiddetta 'intelligenza artificiale'.