NOVITA'[1900]
Scrum come sistema operativo dell'intelligenza: anatomia di un discorso autoreferenziale e il tramonto di un modello.
Vi sono fenomeni la cui struttura si comprende meglio nella fase terminale che nell'apogeo. La consulenza agile, quella che per quasi vent'anni ha prosperato sulla vendita di framework certificabili, di ruoli rinominati con etichette nuove, di ritualità iterative elevate a metodo trasformativo, attraversa oggi una crisi di pertinenza che i suoi indicatori economici ancora non registrano, ma che la qualità del discorso che produce segnala con chiarezza.
Il lavoro rubato, secondo Asimov. Una profezia sul declassamento umano
Molto prima dell’IA generativa, Isaac Asimov aveva già raccontato il trauma sociale della sostituzione del lavoro umano con le macchine umanoidi. In Abissi d’acciaio i robot sostituiscono dapprima il lavoro di commessi e fattorini, ma la loro diffusione minaccia presto di soffiare il posto anche a poliziotti, impiegati, colletti sempre più bianchi. Ci sono proteste, declassamenti, folle inferocite e uomini che capiscono di poter essere rimpiazzati non solo nella forza lavoro, ma anche nel giudizio, nelle competenze, nelle funzioni mentali. Ma il bersaglio vero del romanzo non è la macchina in sé. Asimov mostra con lucidità sorprendente che una società senza protezioni trasforma ogni progresso in una minaccia, e che il vero incubo non è la macchina che lavora meglio dell’uomo, ma il sistema che rende quella superiorità una condanna per chi resta indietro.
Maker o Doer?
Quando fare è creare, e l'IA ci aiuta a vederlo, finalmente; forse.
The epistemological trap of AI: why "System 0" determines the success of the corporate cognitive stack
The Zero Wound: Most AI investments don't fail loudly. They fail quietly, expensively, and in slow motion.
La Venere di Milo e le strategie mutilate: perché l'IA ci costringe, forse, a ricostruire ciò che manca
Dalla teoria alla pratica: come ridare "braccia vive" alla strategia aziendale in Italia nell'era dell'intelligenza artificiale
L’algoritmo espiatorio: È stata l’AI a licenziare 37 lavoratori a Marghera?
Articolo sul recente licenziamento di 37 lavoratori nella sede InvestCloud di Marghera, attribuito All’IA La tempesta colpisce sempre il reparto personale e mai il consiglio di amministrazione. Quasi una piccola nuvoletta di Fantozzi che segue i Paperini della situazione.
La forma e la sostanza. Tecnologia, risorse e l'illusione della guerra risolutiva
In questi ultimi mesi, sollecitato da alcune persone che considero maestri, ho ripreso in mano i miei vecchi quaderni di carta. Ci sono dentro appunti, schizzi di ragionamento, frammenti di letture fatti nel tempo in cui non si scriveva ancora per pubblicare ma per capire. Ho pensato, con una certa immodestia che mi auguro almeno onesta, di farne un libro. So già come verrà inquadrato da chi abita il piano nobile del pensiero contemporaneo, quello che si estende all'incirca tra Porta Romana e il Duomo, con avamposti a Londra e San Francisco visitati una volta l'anno in business class. Costoro diranno "personal branding", con la sicurezza placida di chi ha trovato in due parole inglesi la chiave per interpretare qualunque gesto umano, dalla scrittura di un libro alla scelta di un caffè. Poi storpieranno entrambe le parole, ma con tale convinzione che la storpiatura diventerà, nel giro di qualche settimana, la pronuncia ufficiale nei coworking space in Gae Aulenti. Io non mi riconosco in questa lettura. O meglio: non posso escludere che contenga una parte di verità che preferisco non guardare troppo da vicino, ma di certo non ho intenzione di adottarne il vocabolario. Ho i miei quaderni, ho la lingua italiana, ho una certa diffidenza verso chiunque sia convinto che le idee viaggino meglio se avvolte nell'inglese come le caramelle nella loro pellicola di plastica colorata. Il fatto è che scrivere a partire dai quaderni è difficile. Difficile perché quegli appunti appartenevano a un pensiero in movimento, non a una tesi da difendere. Difficile perché il presente, mentre scrivo, non ha la decenza di aspettare. E difficile soprattutto perché quello che emerge dai quaderni, messo a confronto con ciò che accade fuori dalla finestra, rivela una continuità scomoda: le domande sono le stesse, i problemi sono gli stessi, le idee per cui si combatte sono le stesse. Forse è questo il motivo per cui vale ancora la pena di scrivere.
L’AI tra mito e infrastruttura (POV #27)
Matteo Pasquinelli vs Nick Bostrom: Da dove proviene l’intelligenza che attribuiamo alle macchine?
Intervista ImPossibile a Niccolò Machiavelli (IIP #26)
L’AI e il potere Oggi, ogni tecnologia che organizza informazioni, orienta decisioni e modella il comportamento collettivo diventa inevitabilmente anche una tecnologia di governo. Per capire cosa stia accadendo, può essere utile tornare a uno dei pensatori che più di altri ha analizzato la politica nella sua dimensione concreta. Niccolò Machiavelli è considerato il fondatore della scienza politica moderna. Nel Principe e nei Discorsi sopra la prima deca di Tito Livio osserva la politica non come un sistema di principi morali, ma come “verità effettuale delle cose”, un campo di forze nel quale individui, istituzioni e popoli competono per conquistare e mantenere il potere.
IA IA OH
Vi siete mai fermati un momento a pensare chi o cosa ha portato al passaggio alle cosiddette nuove tecnologie? Vi siete mai interrogati su come dal giorno alla notte miliardi di persone le hanno abbracciate senza chiedersi per un secondo i danni che avrebbero potuto fare e che oggi vediamo ogni giorno sotto i nostri occhi (penso ad esempio agli smartphones costruiti su un principio psicologico ben preciso, si veda Skinner, che, è dimostrato, crea dei danni notevoli alla mente umana)? Come è successo? Ma soprattutto: vi siete accorti di come è successo?
Chi è l'esperto di intelligenza artificiale?
Cosa bisogna sapere per essere esperti di intelligenza artificiale? Il primo istinto è rispondere per accumulo: bisogna saper usare il computer, poi i programmi di base, poi gli strumenti più avanzati, poi quelli specifici del proprio settore, e così via, salendo una scala di competenze tecniche sempre più sofisticate. È la logica del corso di aggiornamento, del tutorial, del manuale. Una logica che ha senso quando il problema è imparare uno strumento nuovo. Ma la questione non è imparare strumenti nuovi.
AI va in guerra
L’intelligenza artificiale è stata raccontata per anni come una tecnologia destinata soprattutto a migliorare la produttività, automatizzare compiti ripetitivi e accompagnare il lavoro umano come una sorta di copilota digitale. Ma questa narrazione, scrive Carola Frediani nella sua analisi pubblicata su Guerre di Rete, rischia di nascondere una trasformazione molto più profonda, l’ingresso dell’AI nel cuore delle infrastrutture militari contemporanee.
La geometria del significato
Cosa i transformer ci rivelano sulla natura della comprensione
Corpo, genere, algoritmi (POV #26)
Judith Butler vs Kate Crawford: Chi decide cosa siamo? Nel contesto contemporaneo dominato dall’intelligenza artificiale, anche il corpo è diventato un dato. Le tecnologie di riconoscimento facciale, i modelli predittivi di genere, le metriche biometriche: tutto sembra riducibile a parametri misurabili. Sembra che tutto possa essere tradotto in parametro. Eppure, anche in questo caso, ci troviamo di fronte ad un problema politico perché ciò che viene misurato dipende dalle categorie con cui decidiamo di descriverlo. Chi stabilisce cosa è un corpo? Cosa accade quando le parole con cui siamo definiti - uomo, donna, normale, anomalo - diventano etichette dentro un dataset? Cosa cambia quando a fissarle non sono soltanto istituzioni sociali, culturali o mediche, ma sistemi algoritmici che le incorporano, le riproducono e le rendono operative su larga scala? Due pensatrici contemporanee aiutano a orientarsi in questa lettura. Judith Butler ha mostrato come il genere sia l’effetto di norme ripetute, interiorizzate, rese evidenti dalla loro stessa reiterazione. Il corpo, nella sua prospettiva, è insieme costruzione e vulnerabilità, esiste dentro contesti di riconoscimento che lo rendono intelligibile o lo espongono all’esclusione. Kate Crawford, studiando l’intelligenza artificiale, evidenzia un altro livello del problema. Gli algoritmi apprendono da archivi storici, da dati che riflettono gerarchie e disuguaglianze già esistenti. Quando classificano un volto o attribuiscono un genere, non scoprono una verità nascosta, ma rendono operative categorie ereditate, spesso senza dichiararle. Tra Butler e Crawford non c’è una sovrapposizione, la prima analizza le norme che producono il soggetto, la seconda mostra come quelle norme vengano oggi tradotte in infrastrutture tecniche. Le loro analisi convergono su un punto, il passaggio dalla costruzione simbolica dell’identità alla sua codifica automatizzata.
Intervista ImPossibile a Martin Heidegger (IIP #25)
L’intelligenza artificiale viene spesso raccontata come una rivoluzione tecnologica. In realtà, la sua portata pare riguardare più il modo in cui una civiltà interpreta sé stessa. Non siamo soltanto di fronte a nuovi strumenti, ma a una trasformazione che ridefinisce il rapporto tra linguaggio, conoscenza, decisione e immaginazione. L’AI non si limita a produrre immagini o testi, prevede comportamenti, legge il reale in cui tutto tende a presentarsi come dato. In questo contesto la tecnica diventa l’ambiente dentro cui viviamo. Quando il mondo viene progressivamente interpretato come flusso di informazioni elaborabili, anche l’essere umano rischia di essere letto nello stesso modo. Perciò, la questione diventa che cosa accade a una società quando il pensiero viene assimilato al calcolo. Non riguarda soltanto ciò che possiamo fare con le macchine, ma il modo in cui esse riconfigurano l’idea stessa di esperienza e responsabilità. Martin Heidegger, con Essere e tempo ha riportato al centro l’esperienza concreta dell’esistenza, l’essere umano come apertura al mondo. Nei suoi scritti successivi ha individuato nella tecnica moderna un modo di rivelare il mondo, un dispositivo che tende a trasformare ogni cosa in risorsa disponibile e calcolabile. Ha chiamato questo processo Gestell, l’impianto che dispone il reale come fondo da sfruttare. Rileggere oggi quelle pagine significa accorgersi che la logica descritta da Heidegger trova nell’intelligenza artificiale una delle sue forme più compiute, non perché avesse previsto computer e algoritmi, ma perché aveva colto la struttura profonda della civiltà del calcolo, una civiltà in cui il linguaggio rischia di diventare puro scambio di informazioni e l’umano una funzione tra le funzioni. Intervistare Heidegger oggi significa riportare l’AI dentro una storia lunga del pensiero occidentale e restituirla alla sua dimensione più radicale per verificare se le sue categorie siano ancora capaci di illuminare il presente.
Disimpegno morale nell'era della delega algoritmica
Zimbardo assegnava uniformi a studenti e otteneva aguzzini. Bandura ha identificato otto meccanismi attraverso cui persone comuni violano i propri princìpi senza provare disagio. Oggi quegli stessi meccanismi operano su scala planetaria, tradotti in funzioni di prodotto dall'industria dell'intelligenza artificiale. Questo saggio esplora la zona d'ombra dove il disimpegno morale incontra la delega cognitiva: il punto in cui smettiamo di pensare e cominciamo a obbedire, convinti di stare semplicemente usando uno strumento. La tesi è che l'obbedienza più efficace sia quella che non si riconosce come tale, perché si presenta con il volto rassicurante dell'efficienza.
Systemic Intelligence [2]
This paper is part of a conceptual trilogy on systemic thought: Dimensions of Interaction (the process) Systemic Intelligence (the structure) Systemic Consciousness (the emergent outcome)
Systemic Consciousness [3]
This paper is part of a conceptual trilogy on systemic thought: Dimensions of Interaction (the process) Systemic Intelligence (the structure) Systemic Consciousness (the emergent outcome)
Dimensions of Interaction [1]
This paper is part of a conceptual trilogy on systemic thought: Dimensions of Interaction [1], Systemic Consciousness [2], Systemic Intelligence [3] Dimensions of Interaction (the process) Systemic Intelligence (the structure) Systemic Consciousness (the emergent outcome)
Catastrofe come diagnosi condivisa
Convergenze inattese tra Yudkowsky/Soares e Sadin Un contributo di riflessione per mettere a confronto due diagnosi dei rischi associati all’evoluzione attuale dell’intelligenza artificiale che sembrano, a una prima lettura, irriducibili l'una all'altra: quella di Eliezer Yudkowsky e Nate Soares, sviluppata nel volume If Anyone Builds It, Everyone Dies (2025), e quella di Éric Sadin, elaborata in Le Désert de nous-mêmes (2025). Al di là delle differenze metodologiche e disciplinari, che sono reali e non vanno minimizzate, i due approcci sembrano converfere su tre nodi fondamentali: 1] la struttura dell'allarme come kairos negativo, 2] la critica della complicità passiva delle istituzioni e della comunità scientifica, 3] il riorientamento del problema dall'ambito tecnico a quello antropologico. Tale convergenza non è casuale, rivela la presenza di una preoccupazione di fondo condivisa riguardo alla capacità dell'umano di comprendere e governare ciò che produce.