NOVITA'[1188]
La Sindrome del Criceto Hi-Tech
Etica, potere e responsabilità nell'infosfera (POV #11)
Il dibattito sull'impatto dell'Intelligenza Artificiale e del digitale sulla società, la politica e l'etica non è mai stato così urgente. Da un lato, Luciano Floridi, fondatore della Filosofia dell'Informazione e studioso dell'“infosfera”, offre un approccio pragmatico e costruttivista, incentrato sulla progettazione etica della nuova civiltà digitale. Dall'altro, Evgeny Morozov, sociologo e critico dei nuovi media, demolisce con scetticismo le promesse del "cyber-utopismo" e del "soluzionismo tecnologico". Per lui il rischio maggiore non è la tecnologia in sé, ma il potere che si concentra nelle mani di poche grandi aziende che possono influenzare economie, istituzioni e opinioni. Mettere a confronto questi due punti di vista - uno più costruttivo, l’altro più critico - aiuta a capire i tre punti decisivi della nostra epoca: l’etica di ciò che costruiamo, il potere di chi controlla gli strumenti, e la responsabilità di come li usiamo. Due visioni diverse, che insieme mostrano quanto sia necessario parlare seriamente di AI e del futuro che stiamo programmando.
Quando l’AI non sa fare le parole crociate: note sparse su un fallimento istruttivo
Note sparse, appunto. Sabato è giorno buono per riflessioni leggere su questioni pesanti. Un po’ come l’enigmistica: gioco di superficie che nasconde strutture. Solo che i modelli vedono solo pattern - e nemmeno quelli giusti, a quanto pare.
Hanno davvero ragione (e c'è da fidarsi) ...
...di tutti quelli che chiedono più sicurezza, trasparenza e linee rosse per il controllo dell'Intelligenza Artificiale? "Riflessioni e consigli operativi sulle deleghe previste nella Legge Italiana sull'Intelligenza Artificiale n. 132/2025"
ChatGPT vuole fare sesso con te. E non è la notizia peggiore
Mi è capitato di leggere, in questi ultimi giorni, due documenti apparentemente distanti. Da un lato il paper "Assessing Risk Relative to Competitors: An Analysis of Current AI Company Policies" del Centre for the Governance of AI (ottobre 2025), dall'altro le analisi critiche di Sandra Bats pubblicate su Medium in merito all'annuncio di OpenAI di introdurre contenuti erotici in ChatGPT a partire da dicembre 2025. Non sono fenomeni separati. Sono manifestazioni dello stesso meccanismo: la privatizzazione della governance etica dell'AI attraverso dispositivi competitivi che si autolegittimano. E questo meccanismo non è un bug. È il sistema operativo del capitalismo algoritmico. Ho testato, sia pure sommariamente, la risposta dei diversi LLM ad una richiesta sessualmente esplicita e piuttosto stereotipata. Il fenomeno dell'escalation è già in atto.
Una segnalazione: Examining Popular Arguments Against AI Existential Risk: A Philosophical Analysis
Negli ultimi anni, personalità di spicco hanno affermato che l'intelligenza artificiale (IA) può avere conseguenze indesiderate con un impatto elevato, sia a breve che a lungo termine. Questi sono spesso definiti i cosiddetti "rischi esistenziali", "rischi catastrofici" o "rischi x". La preoccupazione sui rischi è anche oggetto di intenso lavoro all'interno della comunità accademica, anche per le implicazioni etiche legate allo sviluppo dell'intelligenza artificiale che sollevano interrogativi sul controllo, la governance e l'allineamento dei valori dei sistemi di intelligenza artificiale iperavanzati. Qui segnaliamo un paper pubblicato su ARXIV e aperto a tutti per la consultazione e la lettura.
Il sacro e l’AI (POV #08)
Paolo Benanti e Francesco D’Isa: Che cosa resta del sacro, se l’AI diventa il “dio” a cui deleghiamo verità, senso e azione? Possiamo ancora parlare di mistero, trascendenza e immaginazione in un mondo in cui le macchine analizzano, prevedono, creano e riscrivono la realtà? Il nostro bisogno di dare un senso alle cose resiste davanti all’automazione, oppure finiamo per affidare tutto agli algoritmi? Stiamo davvero costruendo nuovi dei a cui credere oppure semplicemente nuovi strumenti da usare? Ho scelto due voci autorevoli del dibattito italiano, internazionale. Paolo Benanti è un teologo francescano, consulente del Vaticano e studioso di etica delle tecnologie. Francesco D’Isa è filosofo, uno degli autori italiani più interessanti sul ruolo dell’immaginazione e dei simboli nella società di oggi. Di fronte all’intelligenza artificiale, sia Benanti che D’Isa condividono la stessa preoccupazione: dobbiamo evitare di cadere nella “tecnofede”, cioè nell’idea che la tecnologia sia una specie di “salvatore” o “dio”. Tuttavia, si dividono quando si parla del vero significato del sacro e del ruolo che l’essere umano può avere in questa nuova epoca.
La biblioteca senza finestre
Doxastic loops e l'auto-conferma epistemica negli LLM Immaginate di entrare in una biblioteca dove ogni libro cita solo altri libri della stessa biblioteca. Nessun riferimento al mondo esterno, nessuna prova nuova, solo rimandi interni che si rafforzano a vicenda. Ogni volume conferma l'altro, ogni affermazione trova eco in mille pagine che la ripetono, la parafrasano, la celebrano. Ma nessuno di quei libri ha mai guardato fuori dalla finestra.
Il lavoro di demistificazione dell'IA non finisce mai
L'era delle macchine vede diffondersi un "nuovo animismo" che ci costringe a vedere di nuovo la macchina come una cosa fatta, a ricordare che la sua intelligenza nasce dall'addestramento, e il suo addestramento nasce dai dati, e i suoi dati nascono da tracce umane che sono state appiattite, indicizzate e riorganizzate fino a farle assomigliare all'immagine speculare della ragione stessa.
Intervista ImPossibile a Italo Calvino (IIP #05)
Le città algoritmiche Italo Calvino (1923–1985) è stato uno degli scrittori italiani più visionari del Novecento. Dalla Trilogia degli antenati a Le città invisibili, fino alle Lezioni americane, la sua opera ha esplorato le possibilità del linguaggio e dell’immaginazione come strumenti per ordinare la complessità del reale. Tra i suoi concetti chiave vi sono Esattezza, Molteplicità, Leggerezza, Rapidità, Visibilità e Consistenza, qualità che sembrano descrivere perfettamente la natura stessa dell’intelligenza artificiale. Nei suoi scritti, Calvino si è confrontato con il pensiero combinatorio, con l’idea di letteratura come rete, con la possibilità di una “enciclopedia infinita del mondo”, anticipando molti aspetti della cultura algoritmica contemporanea. Come affronterebbe oggi Italo Calvino il tema delle città algoritmiche, dove dati, simulazioni e reti stanno progressivamente sostituendo la materia e la memoria delle città reali?
Intervista ImPossibile a George Orwell (IIP #04)
L’AI come nuovo totalitarismo George Orwell (pseudonimo di Eric Arthur Blair, 1903–1950) è uno degli autori più influenti del XX secolo. Scrittore, giornalista e combattente antifranchista, ha denunciato i meccanismi del potere e della manipolazione con una chiarezza che ancora oggi inquieta. I suoi due romanzi più celebri – La fattoria degli animali (1945) e 1984 (1949) – sono parabole del totalitarismo moderno: il primo una satira contro la degenerazione del socialismo reale, il secondo una visione profetica della società della sorveglianza e del controllo mentale. Orwell credeva che la menzogna organizzata fosse la forma più alta di potere e che la verità, anche quando ridotta a una formula banale come due più due fa quattro, fosse l’ultimo baluardo della libertà umana. Cosa penserebbe il creatore del Grande Fratello davanti alla nascita di un’intelligenza che osserva tutto, capace di conoscere i nostri desideri prima ancora che li formuliamo?
Intervista ImPossibile a Gilles Deleuze (IIP #03)
AI e il desiderio di creare Gilles Deleuze (1925–1995) è stato uno dei filosofi più radicali e originali del Novecento. Tra le sue opere principali figurano Nietzsche e la filosofia (1962), Differenza e ripetizione (1968), Logica del senso (1969), L’Anti-Edipo (1972, con Félix Guattari), Millepiani (1980) e Che cos’è la filosofia? (1991). Il suo pensiero ha introdotto concetti chiave come il rizoma, il corpo senza organi, la deterritorializzazione, la critica alla psicoanalisi ed alla rappresentazione, e l’idea della filosofia come arte di creare concetti. Le sue analisi sul desiderio, sulla vita sociale e sulle “macchine” del capitalismo offrono ancora oggi strumenti utili per leggere e comprendere le tecnologie digitali. Che cosa direbbe oggi Deleuze, di fronte all’intelligenza artificiale?
Il dominio dell’AI (POV #03)
Shoshana Zuboff e Yoshua Bengio: algoritmi tra emancipazione e controllo. Viviamo in un’epoca in cui l’intelligenza artificiale sembra promettere tutto: efficienza, conoscenza, persino giustizia. Ma gli algoritmi che regolano le nostre vite sono davvero neutrali? O nascondono nuove forme di potere e disuguaglianza? Da una parte, Shoshana Zuboff ci mette in guardia contro il “capitalismo della sorveglianza”, un sistema che trasforma ogni esperienza in dato da sfruttare, riducendo la libertà individuale a merce di scambio. Dall’altra, Yoshua Bengio, pioniere del deep learning, non nega i rischi ma invita a costruire regole, istituzioni e responsabilità collettive per fare dell’AI una tecnologia al servizio dell’umanità. Gli algoritmi sono una trappola che alimenta disuguaglianze sempre più profonde, o una risorsa che - se governata - può ancora rafforzare la nostra autonomia di pensiero?
Chi ha paura dell'Intelligenza Artificiale?
L'acceso dibattito e confronto tra coloro che vedono nell'Intelligenza Artificiale (di seguito denominata Ai) una risorsa e quanti, all'opposto, la considerano una tecnologia pericolosa si ripropone ormai costantemente. Arricchendosi ogni volta di ulteriori elementi che guardano spesso alla casistica nota degli sviluppatori.
Intervista ImPossibile a Hannah Arendt (IIP #01)
Hannah Arendt (1906–1975) è stata una delle più importanti filosofe politiche del Novecento. Ebrea tedesca, allieva di Heidegger e Jaspers, dopo l’esilio negli Stati Uniti ha pubblicato opere fondamentali come Le origini del totalitarismo (1951) e La banalità del male (1963), che hanno cambiato il nostro modo di comprendere il potere, il male e la responsabilità individuale. La sua riflessione sulla fragilità della democrazia, sul linguaggio politico e sulla libertà rimane ancora oggi un riferimento imprescindibile. In questa “intervista impossibile” proviamo a immaginare cosa direbbe Arendt di fronte alle implicazioni dell’intelligenza artificiale.
Coscienza e AI (POV #01)
Federico Faggin vs Riccardo Manzotti: cosa distingue l’esperienza umana dalle tecnologie? Il rapido sviluppo dell'Intelligenza Artificiale Generativa sta facendo emergere questioni sulla natura della coscienza e sull'unicità dell'essere umano. Mentre le macchine diventano sempre più capaci di imitare il linguaggio e persino la creatività, ci si sta chiedendo se possono davvero "capire", "sentire", o essere "coscienti" come noi. Per indagare questa complessità ho messo a confronto due voci autorevoli e profondamente originali: Federico Faggin, pioniere dei microprocessori che oggi si dedica allo studio della coscienza, e Riccardo Manzotti, filosofo e ingegnere, ideatore della teoria della Mind-Object Identity. Le loro prospettive, pur partendo da basi disciplinari diverse - Faggin guarda alla fisica quantistica, Manzotti all'esperienza del mondo esterno - offrono spunti critici essenziali per cercare di conoscere il presente e il futuro dell'AI. L'obiettivo è sviscerare le loro visioni sulla coscienza, la vita e i limiti dell'AI, per vedere come rispondono alle stesse sfide con strumenti concettuali differenti.
L'uso dell'Intelligenza Artificiale alla luce del metodo socratico
Il 'prompt' è la forma di dialogo che pone alla macchina domande strategiche per far nascere risposte e percorsi di significato che diventano rilevanti a livello di senso. "La crescita dell’informazione e la sempre maggiore eterogeneità del sapere superano ogni capacità d’immagazzinamento e di trattazione da parte del cervello umano", sostiene Edgar Morin. Per questo può esserci utile l'Intelligenza Artificiale Generativa. Il modo di proporre 'prompt' lo si trova già descritto da Platone nei dialoghi socratici. Consiste in fondo nell'uso di due tecniche essenziali in ogni linguaggio evoluto: leggere e scrivere. Meglio ancora: leggere e scrivere bene. Per usare la AI non è necessario niente altro che scrivere in modo sensato, sapendo dove si vuole arrivare, con ottima forma.
L'economia della ciambella: un nuovo paradigma per l’umanità nel XXI secolo
Viviamo un momento storico cruciale, in cui i modelli economici tradizionali basati su crescita infinita e sfruttamento illimitato mostrano tutte le loro contraddizioni. Kate Raworth, con la sua teoria della "ciambella", ci offre una bussola preziosa per ripensare l’economia del XXI secolo, mettendo al centro la giustizia sociale e il rispetto per i limiti planetari. L'antropocene ci ricorda che il nostro metabolismo globale è in crisi: sovrasfruttiamo le risorse naturali e oltrepassiamo i confini che mantengono in equilibrio la vita sul pianeta. Ma c’è una via per prosperare entro uno spazio sicuro e giusto, dove nessuno sia privato di bisogni essenziali e dove si rispettino i limiti biofisici della Terra. Nel mio ultimo articolo approfondisco le 7 mosse di Raworth per un’economia rigenerativa, distributiva e inclusiva, fondata su una nuova antropologia economica che riconosce l’essere umano come socialmente interdipendente. Si apre così la sfida di superare la disuguaglianza sociale e il degrado ambientale come due facce di un’unica crisi sistemica. Solo con un cambio di paradigma culturale, politico ed economico potremo davvero costruire un futuro sostenibile e giusto per tutte le generazioni.
Furti di VIP e salvezza artificiale: chi ci crede davvero?
Un parallelo tra i furti improbabili ai danni di VIP in cerca di visibilità — come bagagli di lusso con gioielli e diamanti spariti sul treno oppure orologi da 200.000 euro persi dopo le vacanze — e le narrazioni utopistiche sull’intelligenza artificiale “benevola” che distribuirà ricchezza in modo equo. Entrambi i casi condividono lo stesso difetto: la sospensione del senso critico e l’accettazione di storie troppo perfette per essere vere. Con riferimenti ai lavori di Cathy O’Neil, Kate Crawford e Shoshana Zuboff, il testo invita a verificare, chiedere prove e diffidare delle narrazioni che promettono equità senza fornire basi concrete.