NOVITA'[1871]
L’AI tra mito e infrastruttura (POV #27)
Matteo Pasquinelli vs Nick Bostrom: Da dove proviene l’intelligenza che attribuiamo alle macchine?
Intervista ImPossibile a Niccolò Machiavelli (IIP #26)
L’AI e il potere Oggi, ogni tecnologia che organizza informazioni, orienta decisioni e modella il comportamento collettivo diventa inevitabilmente anche una tecnologia di governo. Per capire cosa stia accadendo, può essere utile tornare a uno dei pensatori che più di altri ha analizzato la politica nella sua dimensione concreta. Niccolò Machiavelli è considerato il fondatore della scienza politica moderna. Nel Principe e nei Discorsi sopra la prima deca di Tito Livio osserva la politica non come un sistema di principi morali, ma come “verità effettuale delle cose”, un campo di forze nel quale individui, istituzioni e popoli competono per conquistare e mantenere il potere.
IA IA OH
Vi siete mai fermati un momento a pensare chi o cosa ha portato al passaggio alle cosiddette nuove tecnologie? Vi siete mai interrogati su come dal giorno alla notte miliardi di persone le hanno abbracciate senza chiedersi per un secondo i danni che avrebbero potuto fare e che oggi vediamo ogni giorno sotto i nostri occhi (penso ad esempio agli smartphones costruiti su un principio psicologico ben preciso, si veda Skinner, che, è dimostrato, crea dei danni notevoli alla mente umana)? Come è successo? Ma soprattutto: vi siete accorti di come è successo?
Chi è l'esperto di intelligenza artificiale?
Cosa bisogna sapere per essere esperti di intelligenza artificiale? Il primo istinto è rispondere per accumulo: bisogna saper usare il computer, poi i programmi di base, poi gli strumenti più avanzati, poi quelli specifici del proprio settore, e così via, salendo una scala di competenze tecniche sempre più sofisticate. È la logica del corso di aggiornamento, del tutorial, del manuale. Una logica che ha senso quando il problema è imparare uno strumento nuovo. Ma la questione non è imparare strumenti nuovi.
AI va in guerra
L’intelligenza artificiale è stata raccontata per anni come una tecnologia destinata soprattutto a migliorare la produttività, automatizzare compiti ripetitivi e accompagnare il lavoro umano come una sorta di copilota digitale. Ma questa narrazione, scrive Carola Frediani nella sua analisi pubblicata su Guerre di Rete, rischia di nascondere una trasformazione molto più profonda, l’ingresso dell’AI nel cuore delle infrastrutture militari contemporanee.
La geometria del significato
Cosa i transformer ci rivelano sulla natura della comprensione
Corpo, genere, algoritmi (POV #26)
Judith Butler vs Kate Crawford: Chi decide cosa siamo? Nel contesto contemporaneo dominato dall’intelligenza artificiale, anche il corpo è diventato un dato. Le tecnologie di riconoscimento facciale, i modelli predittivi di genere, le metriche biometriche: tutto sembra riducibile a parametri misurabili. Sembra che tutto possa essere tradotto in parametro. Eppure, anche in questo caso, ci troviamo di fronte ad un problema politico perché ciò che viene misurato dipende dalle categorie con cui decidiamo di descriverlo. Chi stabilisce cosa è un corpo? Cosa accade quando le parole con cui siamo definiti - uomo, donna, normale, anomalo - diventano etichette dentro un dataset? Cosa cambia quando a fissarle non sono soltanto istituzioni sociali, culturali o mediche, ma sistemi algoritmici che le incorporano, le riproducono e le rendono operative su larga scala? Due pensatrici contemporanee aiutano a orientarsi in questa lettura. Judith Butler ha mostrato come il genere sia l’effetto di norme ripetute, interiorizzate, rese evidenti dalla loro stessa reiterazione. Il corpo, nella sua prospettiva, è insieme costruzione e vulnerabilità, esiste dentro contesti di riconoscimento che lo rendono intelligibile o lo espongono all’esclusione. Kate Crawford, studiando l’intelligenza artificiale, evidenzia un altro livello del problema. Gli algoritmi apprendono da archivi storici, da dati che riflettono gerarchie e disuguaglianze già esistenti. Quando classificano un volto o attribuiscono un genere, non scoprono una verità nascosta, ma rendono operative categorie ereditate, spesso senza dichiararle. Tra Butler e Crawford non c’è una sovrapposizione, la prima analizza le norme che producono il soggetto, la seconda mostra come quelle norme vengano oggi tradotte in infrastrutture tecniche. Le loro analisi convergono su un punto, il passaggio dalla costruzione simbolica dell’identità alla sua codifica automatizzata.
Intervista ImPossibile a Martin Heidegger (IIP #25)
L’intelligenza artificiale viene spesso raccontata come una rivoluzione tecnologica. In realtà, la sua portata pare riguardare più il modo in cui una civiltà interpreta sé stessa. Non siamo soltanto di fronte a nuovi strumenti, ma a una trasformazione che ridefinisce il rapporto tra linguaggio, conoscenza, decisione e immaginazione. L’AI non si limita a produrre immagini o testi, prevede comportamenti, legge il reale in cui tutto tende a presentarsi come dato. In questo contesto la tecnica diventa l’ambiente dentro cui viviamo. Quando il mondo viene progressivamente interpretato come flusso di informazioni elaborabili, anche l’essere umano rischia di essere letto nello stesso modo. Perciò, la questione diventa che cosa accade a una società quando il pensiero viene assimilato al calcolo. Non riguarda soltanto ciò che possiamo fare con le macchine, ma il modo in cui esse riconfigurano l’idea stessa di esperienza e responsabilità. Martin Heidegger, con Essere e tempo ha riportato al centro l’esperienza concreta dell’esistenza, l’essere umano come apertura al mondo. Nei suoi scritti successivi ha individuato nella tecnica moderna un modo di rivelare il mondo, un dispositivo che tende a trasformare ogni cosa in risorsa disponibile e calcolabile. Ha chiamato questo processo Gestell, l’impianto che dispone il reale come fondo da sfruttare. Rileggere oggi quelle pagine significa accorgersi che la logica descritta da Heidegger trova nell’intelligenza artificiale una delle sue forme più compiute, non perché avesse previsto computer e algoritmi, ma perché aveva colto la struttura profonda della civiltà del calcolo, una civiltà in cui il linguaggio rischia di diventare puro scambio di informazioni e l’umano una funzione tra le funzioni. Intervistare Heidegger oggi significa riportare l’AI dentro una storia lunga del pensiero occidentale e restituirla alla sua dimensione più radicale per verificare se le sue categorie siano ancora capaci di illuminare il presente.
Disimpegno morale nell'era della delega algoritmica
Zimbardo assegnava uniformi a studenti e otteneva aguzzini. Bandura ha identificato otto meccanismi attraverso cui persone comuni violano i propri princìpi senza provare disagio. Oggi quegli stessi meccanismi operano su scala planetaria, tradotti in funzioni di prodotto dall'industria dell'intelligenza artificiale. Questo saggio esplora la zona d'ombra dove il disimpegno morale incontra la delega cognitiva: il punto in cui smettiamo di pensare e cominciamo a obbedire, convinti di stare semplicemente usando uno strumento. La tesi è che l'obbedienza più efficace sia quella che non si riconosce come tale, perché si presenta con il volto rassicurante dell'efficienza.
Systemic Intelligence [2]
This paper is part of a conceptual trilogy on systemic thought: Dimensions of Interaction (the process) Systemic Intelligence (the structure) Systemic Consciousness (the emergent outcome)
Systemic Consciousness [3]
This paper is part of a conceptual trilogy on systemic thought: Dimensions of Interaction (the process) Systemic Intelligence (the structure) Systemic Consciousness (the emergent outcome)
Dimensions of Interaction [1]
This paper is part of a conceptual trilogy on systemic thought: Dimensions of Interaction [1], Systemic Consciousness [2], Systemic Intelligence [3] Dimensions of Interaction (the process) Systemic Intelligence (the structure) Systemic Consciousness (the emergent outcome)
Catastrofe come diagnosi condivisa
Convergenze inattese tra Yudkowsky/Soares e Sadin Un contributo di riflessione per mettere a confronto due diagnosi dei rischi associati all’evoluzione attuale dell’intelligenza artificiale che sembrano, a una prima lettura, irriducibili l'una all'altra: quella di Eliezer Yudkowsky e Nate Soares, sviluppata nel volume If Anyone Builds It, Everyone Dies (2025), e quella di Éric Sadin, elaborata in Le Désert de nous-mêmes (2025). Al di là delle differenze metodologiche e disciplinari, che sono reali e non vanno minimizzate, i due approcci sembrano converfere su tre nodi fondamentali: 1] la struttura dell'allarme come kairos negativo, 2] la critica della complicità passiva delle istituzioni e della comunità scientifica, 3] il riorientamento del problema dall'ambito tecnico a quello antropologico. Tale convergenza non è casuale, rivela la presenza di una preoccupazione di fondo condivisa riguardo alla capacità dell'umano di comprendere e governare ciò che produce.
Prima che sia troppo tardi: fermiamo l’IA!
Tra scenari immaginati (ma nemmeno troppo) e prove scientifiche, un appello urgente ad agire prima che sia troppo tardi.
Intervista ImPossibile a Umberto Eco (IIP #24)
Con l’avvento delle intelligenze artificiali generative, il rapporto tra linguaggio, verità e interpretazione torna al centro del dibattito culturale e politico. I segni si moltiplicano e si ricombinano spesso senza un autore riconoscibile e senza un’intenzione dichiarata. Algoritmi addestrati su archivi sterminati producono testi, immagini e narrazioni che imitano il pensiero umano, mentre la distinzione tra informazione, interpretazione e manipolazione si fa sempre più sfumata. In questo scenario, interrogarsi sul destino del senso non significa soltanto discutere di tecnologia, ma riflettere sul modo in cui le società costruiscono e condividono significati, stabiliscono criteri di “verità” e organizzano le proprie memorie. Che cosa accade quando i segni non sono più prodotti soltanto dagli esseri umani? Chi interpreta chi, e quale spazio resta al pensiero critico quando la produzione simbolica diventa automatica e pervasiva? Questa intervista impossibile prova a immaginare le risposte di uno degli intellettuali che più di altri ha indagato il potere dei segni e la responsabilità dell’interpretazione. Scrittore, filosofo e semiologo, Umberto Eco è stato tra i maggiori interpreti del Novecento e del primo XXI secolo. Medievalista, teorico del linguaggio, romanziere e osservatore acuto dei media, professore all’Università di Bologna e autore di opere fondamentali come Opera aperta, Apocalittici e integrati e Il nome della rosa, ha dedicato la propria ricerca al rapporto tra segni, potere e interpretazione. Al centro del suo pensiero vi è l’idea che ogni testo sia un campo aperto di significati e che il lettore - o l’interprete - svolga un ruolo decisivo nella costruzione del senso. In un periodo nel quale la crisi delle grandi narrazioni e la dissoluzione delle comunità simboliche, le questioni sollevate da Eco tornano con forza: interpretazione, verità, manipolazione, memoria. Ed è da qui che prende forma questo dialogo immaginario.
Salpare umani nell’oceano delle macchine
Per un Umanesimo Digitale come co-evoluzione. La plausibilità non implica esposizione, e senza esposizione non c’è responsabilità. La produzione può essere automatizzata; la deliberazione implica perdita, direzione, irreversibilità. Delegare non significa solo trasferire un compito: significa spostare una soglia. L’AI non sta sostituendo il pensiero umano, lo sta alleggerendo e proprio in questo alleggerimento si gioca la partita decisiva. Un saggio sull’illusione del pensiero delegato, sulla soglia non delegabile della decisione e sulla necessità di un Umanesimo Digitale capace di abitare l’oceano delle macchine senza perdere il peso del timone.
Scrivere senza pagarne il prezzo
Abbiamo delegato la fatica del pensiero a una macchina che non perde il sonno, non rischia nulla e non risponde di nulla. Ma il problema non è la macchina. Il problema è che le abbiamo aperto la porta noi, e molto prima che esistesse.
Il Momento Non Esiste: Sei Tu a Crearlo
Come l'Intelligenza Artificiale chiama tutti, e soprattutto gli studenti, a forgiare il proprio istante con coraggio e mente critica. C'è una frase che mi torna in mente ogni volta che incontro uno studente paralizzato davanti al futuro, ogni volta che sento un adulto dire "aspetto il momento giusto" come se il momento giusto fosse un treno con un orario fisso, una cosa che arriva da sola se si ha sufficiente pazienza.
Gli LLM sono eurocentrici?
Una conversazione con ChatGPT sull’illusione della neutralità.
Chi ha diritto al futuro? (POV #24)
Mariana Mazzucato vs Nick Srnicek: lavoro, reddito e dignità nel capitalismo dell’AI Se l’automazione riduce il bisogno di lavoro umano, la dignità sociale deve continuare a dipendere dall’occupazione o diventare un diritto incondizionato? Chi decide, oggi, che cosa ha valore nell’economia dell’AI? Queste domande tornano al centro del conflitto politico e non riguardano solo il futuro del lavoro, ma il rapporto tra produzione, reddito e cittadinanza in società sempre più automatizzate. Il confronto tra Mariana Mazzucato e Nick Srnicek si colloca esattamente su questa questione. Mazzucato, economista dell’innovazione e teorica dello Stato imprenditore, sostiene che la tecnologia debba essere orientata da politiche pubbliche capaci di creare valore sociale e lavoro di qualità. Srnicek, filosofo politico dell’economia digitale e teorico del post-lavoro, parte invece dalla crisi strutturale del lavoro salariato nel capitalismo delle piattaforme. L’automazione, per lui, apre la possibilità di separare reddito e occupazione e di immaginare nuove forme di libertà fondate su tempo liberato e sicurezza economica universale. Due prospettive divergenti, ma accomunate del medesimo obiettivo, ridefinire il significato della dignità sociale in un’economia in cui il lavoro non è più la misura esclusiva del valore umano.