Tecnologia, IA e Macchine
Questo argomento esplora l'universo dell'intelligenza artificiale e delle tecnologie digitali contemporanee. Comprende lo sviluppo di sistemi di IA come Claude e altri assistenti virtuali, la ricerca sull'Intelligenza Artificiale Generale, e le riflessioni sul rapporto tra uomo e macchina nell'era digitale e postdigitale.
Include anche le questioni legate ai robot, alle visioni transumaniste e postumane, e agli strumenti tecnologici che caratterizzano la nostra epoca (da Google ai motori di ricerca con AI Overviews). Si interroga sulle promesse, i limiti e le implicazioni della tecnologia nella trasformazione della società, del lavoro e dell'esperienza umana, ponendo domande fondamentali sul nostro futuro in un mondo sempre più mediato dalle macchine intelligenti.
Una convergenza inattesa tra value streams e zone d'ombra
Casey LaFrance, professore di Political Science alla Western Illinois University e consulente specializzato in value delivery, ha recentemente pubblicato un saggio sui vincoli relazionali nei flussi di valore organizzativi. Il suo lavoro, parte del progetto Listening for Value, converge in modo sorprendente con la mia ricerca sull'ingiustizia epistemica nelle organizzazioni. Arriviamo da genealogie intellettuali differenti — lui da Carl Rogers, Lean thinking e Theory of Constraints; io da Miranda Fricker, Marcel Mauss e André Leroi-Gourhan — eppure osserviamo lo stesso fenomeno strutturale: il significato si degrada sistematicamente prima che l'azione cominci. La tesi centrale di LaFrance sostiene che nelle organizzazioni contemporanee il valore fallisce principalmente per un motivo specifico: prima ancora di agire, le persone hanno già frainteso cosa si deve fare e perché. Il significato collassa nel momento in cui viene comunicato, indipendentemente da competenza, impegno o sforzo successivi. I vincoli relazionali nei value streams emergono dove l'interpretazione limita il movimento del significato attraverso il sistema. Un esempio: il manager chiede "migliora il servizio clienti". Il team ICT interpreta "automatizza le risposte". Il commerciale interpreta "assumi più personale". Il controller interpreta "riduci i tempi di attesa". Tutti agiscono con competenza su interpretazioni diverse dello stesso obiettivo. Il fallimento è già inscritto nella fase di comunicazione, non nell'esecuzione. Le organizzazioni investono enormemente in sistemi per produrre informazione — report, dashboard, metriche, compliance artifacts — faticando sistematicamente a tradurre quell'informazione in comprensione condivisa.
L’intelligenza è una relazione
Da quando i modelli generativi sono entrati nella conversazione pubblica, abbiamo iniziato a parlare di intelligenza artificiale come di un nuovo soggetto: sempre più potente, sempre più autonomo, quasi una mente. Ma cosa accade se cambiamo prospettiva? Se l’intelligenza non fosse una proprietà del singolo sistema, ma qualcosa che emerge dalle relazioni tra sistemi?
Salpare umani nell’oceano delle macchine
Per un Umanesimo Digitale come co-evoluzione di Flavio Tonelli
Il paradiso artificiale dell'intelligenza
Questa mattina, mentre attraversavo la città in sella allo scooter (momento meraviglioso per pensare), mi è venuto in mente che il termine "artificiale" ha sempre avuto, fino a un po' di tempo fa, una connotazione non propriamente positiva. Allora sono andato a cercare con la memoria usi del termine: paradisi artificiali, fiori artificiali, ecc. Poi, fermo ad un semaforo, mi sono detto: "vedi, però, come cambia la percezione collettiva del linguaggio, eh? Oggi con l'AI la parola è diventata una bella parola. - sì, d'accordo, parto, scusa, scusa - era venuto verde". Beh, com'è come non è, come ormai faccio sempre, tornato a casa ho aperto Perplexity (versione Claude 4.5) e ho cominciato a conversare con lui/lei/esso su queste riflessioni, che, come al solito, si sono espanse, dilatate, trasformate, arricchite. Ed allora, sempre come mio solito, con la conversazione con Perplexity sotto il braccio (per modo di dire), ho bussato alla porta di Claude (in una smagliante e scintillante versione Opus 4.6), con cui, in due o tre passaggi, ho scritto (?), generato, prodotto, il testo che segue. Come vedrete sono nella contraddizione con tutte le scarpe.
Esperti di IA? Sì. Ma non nel modo in cui pensiamo.
Parliamo spesso di “esperti di intelligenza artificiale” come se fosse una categoria compatta, definita, stabile. Ma l’AI non è un oggetto unico: è un territorio in continua espansione, fatto di ricerca, ingegneria, orchestrazione, agenti autonomi, impatti organizzativi ed etici. In questo scenario, forse la domanda non è se gli esperti esistano, ma cosa significhi davvero esserlo oggi. In un ecosistema che evolve più rapidamente dei nostri tempi di apprendimento, la competenza non è un’etichetta definitiva, ma una posizione da abitare con consapevolezza.
Archaeological Report (Apathos)
The Coup That Changed Everything (Without Spilling a Drop of Blood) The God Who Won Without a Fight We thought the gods were dead. Turns out, they were just binge-watching. While Hephaestus gave up crafting and Athena turned her spear into a noodle tray, a forgotten deity rose from the dust under the couch: Apathos: the god of passive scrolling, ergonomic thrones, and infinite reels. No blood was spilt. No lightning struck. Just one silent decree: Leave it. It’ll generate itself.” And we obeyed. Because nothing feels better than doing nothing — especially when it comes with push notifications. Let us go to the excavation pot. Instead, we dug into the upper layers of digital debris — and found a coup. Not a violent one. Not even intentional. A quiet overthrow carried out by the only deity patient enough to wait us out: **Apathos**, the god of not bothering. While Hephaestus abandoned his forge to upgrade a remote control, and Athena traded wisdom for instant noodles and infinite scrolling, Apathos rose from the crumbs under the cosmic couch. No thunderbolts. No battles. Just the irresistible promise that nothing — absolutely nothing — needs to be done. On his throne of ergonomic foam, he rules a pantheon that has simply lain down and stayed there. Zeus checks his smartwatch for lightning updates. Artemis follows her Roomba instead of prey. And we, the mortals, kneel before the soft tyranny of convenience. This is not mythology. This is an autopsy of our attention. A chronicle of a world that didn’t fall — it reclined. Apathos didn’t conquer us. We handed him the crown the moment we whispered the most dangerous prayer of the digital age: Let the algorithm handle it.” ---
Dieci parole (+1) per continuare a pensare
Un lessico per abitare l’intelligenza artificiale senza delegare l’umano
Il destino dell’intenzionalità nell’era agentica
Quando la differenza tra mostrare e volere smette di fare differenza
Gemello digitale, incubo reale
Stiamo entrando nell’epoca in cui non ci importa più se chi ci parla un essere vivente o la sua copia perfetta, ma solo virtuale, digitale, tecnologica?
L'Effetto Rorschach Collettivo: anatomia di un concetto che non muore mai
Quando ho conversato con un'AI sul fatto di come mai i dibattiti sull'intelligenza artificiale sembrano rivelare più noi stessi che la tecnologia, mi ha risposto coniando la formula "Effetto Rorschach Collettivo" — presentandola come un'intuizione originale emersa dalla nostra conversazione. O almeno così pareva. Suonava bella, perfetta. Troppo. Scavando un po', ho scoperto che quella formula non era affatto nuova: esisteva già in pubblicazioni di pochi giorni prima, aveva una genealogia che risaliva a Sherry Turkle (MIT, 1980), era passata attraverso l'arte concettuale di Agnieszka Kurant (2019) e la critica etica di Margaret Mitchell (2021), ed era diventata un meme intellettuale applicato a decine di contesti diversi negli ultimi quarant'anni. L'AI stava riciclando. E io stavo documentando empiricamente il fenomeno stesso che stavamo discutendo: la tendenza a proiettare significati su sistemi ambigui credendo di scoprire qualcosa di nuovo.
Intervista ImPossibile a Sigmund Freud (IIP #23)
La macchina e l’inconscio L’AI promette di analizzare comportamenti, prevedere desideri, automatizzare decisioni. Si presenta come uno strumento capace di leggere l’umano attraverso i dati, trasformando tracce digitali, linguaggi e abitudini in modelli predittivi. Ma può davvero comprendere l’essere umano? O rischia, al contrario, di ridurre la complessità psichica a un sistema di calcolo e previsione? Interrogare oggi Freud sull’intelligenza artificiale è un modo per indagare quanto dell’esperienza umana può essere tradotto in dati. Fondatore della psicoanalisi e teorico dell’inconscio, Freud ha mostrato che il comportamento umano non è guidato soltanto dalla razionalità o dall’interesse, ma attraversato da desideri, rimozioni, conflitti, fantasie e pulsioni che sfuggono alla coscienza. La sua teoria della mente - articolata tra Es, Io e Super-Io - ha incrinato l’idea moderna di un soggetto pienamente consapevole di sé, introducendo una frattura destinata a segnare tutto il pensiero contemporaneo. Oggi, a più di un secolo di distanza, l’intelligenza artificiale sembra riproporre una nuova promessa di conoscenza totale. Attraverso l’analisi dei dati e l’apprendimento automatico, le macchine sono in grado di individuare correlazioni, anticipare comportamenti, suggerire decisioni. In questa prospettiva, l’AI appare talvolta come una forma di psicoanalisi automatizzata, un sistema che classifica e prevede. Eppure la psicoanalisi non è mai stata una semplice tecnica di osservazione. Il sintomo, per Freud, non è un dato oggettivo da registrare, ma un messaggio da interpretare all’interno di una relazione. Il desiderio, una forza che si manifesta attraverso rimozioni e ritorni. Il sogno, una formazione dell’inconscio che parla per spostamenti e condensazioni. Da qui nasce la tensione tra psicoanalisi e intelligenza artificiale. Una macchina può riconoscere schemi, ma può interpretare il senso di un sintomo? Può distinguere tra comportamento e desiderio? Può comprendere ciò che nell’essere umano resta contraddittorio, non riducibile a una sequenza di dati? Questa intervista impossibile prova a immaginare le risposte di Freud di fronte all’AI, per utilizzare il suo pensiero come strumento critico nel presente. Se l’intelligenza artificiale rappresenta una delle tecnologie decisive del nostro tempo, la psicoanalisi resta uno dei dispositivi più radicali per interrogare l’idea stessa di soggetto. Mettere a confronto questi due contesti significa indagare il confine tra calcolo e desiderio, tra macchina e umano.
Yuk Hui, Post-Europa. Decolonizzare la filosofia nell’era delle macchine-IA
Una breve recensione nata come riflessione di approfondimento sul libro Post-Europa di Yuk Hui da poco terminato di leggere. Un testo interessante nel suo mettere a confronto Oriente e Occidente suggerendo il superamento dell'opposizione ideologica che li vede sempre come l'uno contro l'altro. Su tutto pesa il concetto di colonizzazione.
Verso una nuova episteme. Oltre le semplificazioni
Una conversazione con lo scienziato sociale e pensatore sistemico Piero Dominici.
“Defending against AI is like using butterfly nets against ballistic missiles.”
Today’s conservative guardians of “eternal values” won’t outrun AI, not even if they sprint. Trying to hide from it is like raising a paper umbrella during a barrage of ballistic missiles. The shockwave is already forming, and most people still pretend it’s just a passing breeze. Their moral fortresses crumble the moment the algorithm enters the room. What they call protection is nothing more than ritualised denial dressed up as principle. And the unsettling truth is that the real storm hasn’t even begun to gather. We’re standing at the edge of the blast zone, insisting it’s sunrise.
Collegare i puntini
Quando le voci più autorevoli del pianeta convergono sullo stesso messaggio, forse è il momento di ascoltare
La classe fantasma: quando docenti e studenti copiano dalla stessa IA
Siamo di fronte a una biforcazione storica. L’AI può catalizzare una trasformazione positiva dell’educazione, liberando i docenti migliori da compiti ripetitivi per concentrarsi su ciò che solo l’umano può fare: coltivare curiosità, modellare rigore intellettuale, costruire relazioni educative autentiche. Ma può anche accelerare una deriva già in corso: la riduzione dell’insegnamento a trasferimento di informazioni processate, la perdita della relazione pedagogica come incontro trasformativo tra intelligenze umane, l’atrofia delle competenze sia dei docenti che non sviluppano mai maestria autonoma, sia degli studenti che non incontrano mai resistenza cognitiva produttiva. La differenza tra questi due futuri non risiede nella tecnologia. Risiede nelle scelte politiche, istituzionali e professionali che faremo.
Una sola scheda
Non sempre ci accorgiamo di quando il nostro modo di cercare cambia. A volte smettiamo di esplorare non per mancanza di curiosità, ma perché una risposta arriva troppo in fretta. Questo testo nasce da una sensazione condivisa: il momento in cui approfondire inizia a sembrare superfluo. E il pensiero, senza rumore, diventa più corto.
Cambio di paradigma?
Non è l’IA a cambiare il mondo, ma siamo noi che stiamo riadattando il mondo all’intelligenza artificiale e il rischio non è che l’IA diventi simile all’umano, ma che l’umano venga progressivamente adattato ai parametri della macchina.
La Guardianía del Sentido
Operacionalizar la guardianía del sentido no significa convertirla en un método cerrado, sino mantenerla como una práctica criterial, situada y reflexiva que introduce preguntas ineludibles en el diseño y despliegue tecnológico. Más que añadir métricas o protocolos, desplaza la atención hacia la lectura de sentido, la cultura organizativa y el contexto, evitando que la eficiencia técnica clausure prematuramente el mundo. No ofrece recetas universales, sino un umbral de responsabilidad desde el que seguir actuando sin abdicar de lo humano.
La jaula de silicio
No hay barrotes. No hay guardias. No hay órdenes gritadas. La jaula de silicio no se impone por la fuerza, sino por la eficiencia. No restringe movimientos; los optimiza. No silencia la palabra; la vuelve innecesaria. No niega la libertad; la redefine como adaptación exitosa a un entorno ya configurado. Por eso resulta tan difícil de percibir. Funciona bien. Reduce fricciones. Elimina arbitrariedades visibles. Promete objetividad. Y mientras cumple esas promesas, algo esencial se desliza fuera de campo: el mundo común como espacio de sentido compartido. En la jaula invisible, las decisiones siguen afectando a personas, pero ya no pasan por ellas. Los derechos siguen proclamándose, pero ya no encuentran interlocutores. La democracia sigue en pie, pero como procedimiento gestionado, no como práctica vivida. Todo continúa, pero en otro plano.