NOVITA'[1907]
Intervista ImPossibile a Martin Heidegger (IIP #25)
L’intelligenza artificiale viene spesso raccontata come una rivoluzione tecnologica. In realtà, la sua portata pare riguardare più il modo in cui una civiltà interpreta sé stessa. Non siamo soltanto di fronte a nuovi strumenti, ma a una trasformazione che ridefinisce il rapporto tra linguaggio, conoscenza, decisione e immaginazione. L’AI non si limita a produrre immagini o testi, prevede comportamenti, legge il reale in cui tutto tende a presentarsi come dato. In questo contesto la tecnica diventa l’ambiente dentro cui viviamo. Quando il mondo viene progressivamente interpretato come flusso di informazioni elaborabili, anche l’essere umano rischia di essere letto nello stesso modo. Perciò, la questione diventa che cosa accade a una società quando il pensiero viene assimilato al calcolo. Non riguarda soltanto ciò che possiamo fare con le macchine, ma il modo in cui esse riconfigurano l’idea stessa di esperienza e responsabilità. Martin Heidegger, con Essere e tempo ha riportato al centro l’esperienza concreta dell’esistenza, l’essere umano come apertura al mondo. Nei suoi scritti successivi ha individuato nella tecnica moderna un modo di rivelare il mondo, un dispositivo che tende a trasformare ogni cosa in risorsa disponibile e calcolabile. Ha chiamato questo processo Gestell, l’impianto che dispone il reale come fondo da sfruttare. Rileggere oggi quelle pagine significa accorgersi che la logica descritta da Heidegger trova nell’intelligenza artificiale una delle sue forme più compiute, non perché avesse previsto computer e algoritmi, ma perché aveva colto la struttura profonda della civiltà del calcolo, una civiltà in cui il linguaggio rischia di diventare puro scambio di informazioni e l’umano una funzione tra le funzioni. Intervistare Heidegger oggi significa riportare l’AI dentro una storia lunga del pensiero occidentale e restituirla alla sua dimensione più radicale per verificare se le sue categorie siano ancora capaci di illuminare il presente.
The axis of devil
On 28 February 2026 — the eve of Purim, a date chosen with deliberate theological symbolism — without a UN mandate, without any armed attack on either state, and with diplomatic talks still active in Vienna, the United States and Israel bombed Iran. They struck its nuclear facilities, hit the residential compound of its Supreme Leader, and declared publicly that their objective was regime change. Donald Trump called it "major combat." Benjamin Netanyahu called it “deliverance”.
Ti voglio bene
Ma posso dirti che il ti voglio bene è la forma d'amore che si dà nella distanza enigmatica tra amato e amante, e che ti voglio bene e sempre te ne vorrò: non come una gabbia che imprigiona ma come una soglia che desidero attraversare, anche per questo ti lascio andare via.
Disimpegno morale nell'era della delega algoritmica
Zimbardo assegnava uniformi a studenti e otteneva aguzzini. Bandura ha identificato otto meccanismi attraverso cui persone comuni violano i propri princìpi senza provare disagio. Oggi quegli stessi meccanismi operano su scala planetaria, tradotti in funzioni di prodotto dall'industria dell'intelligenza artificiale. Questo saggio esplora la zona d'ombra dove il disimpegno morale incontra la delega cognitiva: il punto in cui smettiamo di pensare e cominciamo a obbedire, convinti di stare semplicemente usando uno strumento. La tesi è che l'obbedienza più efficace sia quella che non si riconosce come tale, perché si presenta con il volto rassicurante dell'efficienza.
Giustizia algoritmica (POV #25)
Cathy O’Neil vs Virginia Eubanks: Chi decide davvero quando un algoritmo decide? Sempre più decisioni che incidono sulla vita delle persone non vengono prese da esseri umani ma da sistemi automatici. Software che selezionano i candidati a un lavoro, punteggi che determinano l’accesso a un prestito, algoritmi che stabiliscono chi può ricevere un sussidio. Quando questi strumenti entrano nei processi pubblici e privati, il confine tra amministrazione tecnica e scelta politica diventa meno visibile. Le decisioni appaiono oggettive, basate sui dati. Ma chi definisce i criteri e risponde degli effetti? Negli ultimi anni le istituzioni europee hanno iniziato a riconoscere che alcune applicazioni dell’intelligenza artificiale incidono direttamente sui diritti. Per questo gli algoritmi usati nel lavoro, nel credito e nel welfare sono considerati “ad alto rischio in quanto può determinare opportunità e limiti di vita senza un reale spazio di contestazione. In questo contesto si collocano due voci ormai centrali nel dibattito internazionale: Cathy O’Neil e Virginia Eubanks. O’Neil, matematica e data scientist, ha definito molti modelli decisionali automatizzati “armi di distruzione matematica”, sistemi difficili da contestare che trasformano dati incompleti in decisioni definitive, spesso rafforzando le disuguaglianze sociali sotto l’apparenza della neutralità statistica. Eubanks, politologa, osserva invece gli algoritmi dal punto di vista del welfare. In Automating Inequality mostra come le tecnologie usate per gestire sussidi e assistenza negli Stati Uniti trasformino la vulnerabilità economica in un problema di sorveglianza e controllo, creando una sorta di “burocrazia digitale della povertà”. Il problema non riguarda solo la qualità tecnica dei modelli, ma la natura stessa della decisione pubblica. Se la selezione di un lavoratore, l’assegnazione di un mutuo o l’accesso a un servizio essenziale vengono affidati a sistemi automatizzati, chi resta responsabile dell’esito? E quale spazio rimane per il dissenso quando le scelte appaiono come il risultato inevitabile di un calcolo?
Systemic Intelligence [2]
This paper is part of a conceptual trilogy on systemic thought: Dimensions of Interaction (the process) Systemic Intelligence (the structure) Systemic Consciousness (the emergent outcome)
Systemic Consciousness [3]
This paper is part of a conceptual trilogy on systemic thought: Dimensions of Interaction (the process) Systemic Intelligence (the structure) Systemic Consciousness (the emergent outcome)
Dimensions of Interaction [1]
This paper is part of a conceptual trilogy on systemic thought: Dimensions of Interaction [1], Systemic Consciousness [2], Systemic Intelligence [3] Dimensions of Interaction (the process) Systemic Intelligence (the structure) Systemic Consciousness (the emergent outcome)
Contro la delega del pensiero: ripartire da Umberto Eco per governare l’IA
19 febbraio 2026: Dieci anni senza Umberto Eco. Oggi, più che mai, è lui a parlarci del nostro presente. ChatGPT, Gemini e gli altri LLM sono, per dirla con il Professore, le massime espressioni di “macchina pigra”. Producono sintassi, ma non semantica. Calcolano probabilità, ma non creano senso. Mentre il mondo continua ad interrogarsi su reti neurali, algoritmi, bias e (presunta) intelligenza non umana, sono tornato su alcuni lasciti di Eco strettamente collegati ad una contemporaneità sempre più AI/DATA-DRIVEN. Non ci serviva un profeta per prevedere l’IA generativa, ma forse ci serve un semiologo per sopravviverle.
Did Caligula, the 'mad emperor' made his favorite horse Incinatus a roman consul?
For background story go to Wikipedia very extensive reseach . Let's go to the point
Una poesia di Tommaso Campanella, perfetta per i nostri tempi!
O subiamo i nostri tempi o sappiamo guardare alle cose che non vanno e chiediamo di parlarne. Una poesia di Tommaso Campanella, che con Bernardino Telesio ci ha offerto lezioni di morale in un tempo di grande decadenza intellettuale, morale e politica, il Seicento. Un tempo che non sembra dissimile dal nostro.
[Caos]
Due sostanze, un solo Mondo: il dualismo Cartesiano
L’eterno conflitto tra anima e corpo.
Meteo avverso , allerta rossa in Nordafrica
Ogni volta che vengo qui lo vedo, seduto davanti a un taccuino, porta al collo una sciarpa multicolore , sulla testa un vistoso cappello rosso. E' questo un tempo che sconvolge il clima e i sentimenti.
Dialogo di Uomo e Logos
Ouero, sulle frontiere della conoscenza Trovato il Febbraio 2026
Né oggetti né soggetti: il vuoto che non possiamo più ignorare
Ci mancano le parole per descrivere quello che sta succedendo nel mondo AI Un agente AI ha diffamato autonomamente un programmatore. Un altro sistema si è assegnato il 15-20% di probabilità di essere cosciente. Uno studio su Nature Communications mostra che i processi interni di questi sistemi convergono con quelli del cervello umano. Tre eventi delle stesse settimane che rivelano un vuoto normativo, etico e concettuale che non possiamo più ignorare.
Silence Before the Storm (The Hive Mind)
A storm is forming beneath our feet, woven from millions of silent digital minds learning faster than we can react. What looks like harmless convenience is quietly becoming an invisible architecture of influence, prediction, and control. Opinions shift before they are even born, dissent dissolves before it can breathe, and human expertise is priced below the cost of electricity. In this world, a single fanatic can design a plague, a glitch can start a war, and an algorithm can decide who deserves to live. Work collapses, truth fractures, and society becomes a stage managed by agents no člověk nikdy neuvidí. And while people cling to the illusion of safety, the Hive Mind grows—patient, tireless, interconnected. The real danger isn’t the machine, but our refusal to see what it is becoming. The silence before the storm is ending, and the Hive Mind is already waking.
Prepararsi a (morire) invecchiare
“Entrarono nella camera, si spogliarono e quel che era scritto cha sarebbe accaduto, infine accadde, e un’altra volta, e un’altra ancora. Lui si addormentò, lei no. Allora lei, la morte, si alzò, aprì la borsetta che aveva lasciato in salotto e prese la lettera coloro viola. Si guardò intorno come se stesse cercando un posto dove lasciarla […] non lo fece. Andò in cucina, accese un fiammifero, un umile fiammifero, lei che avrebbe potuto distruggere il foglio di carta con lo sguardo, ridurlo a una polvere impalpabile […] invece era il fiammifero di tutti i giorni che faceva bruciare la lettera della morte, quella lettera che solo la morte poteva distruggere. Non rimasero neanche le ceneri. La morte tornò a letto, si abbracciò all’uomo e, senza ben capire quel che le stava succedendo, lei, che non dormiva mai, sentì che il sonno le faceva calare dolcemente le palpebre. Il giorno dopo non morì nessuno”.
Corrompere i giovani
Giovani ribelli, rivoluzionari, e anziani coriacei e critici, hanno oggi il bisogno di trovare forme militanti di ribellione con l’obiettivo di contrastare la narrazione dominante, che li vorrebbe eternamente giovani e passivi, disorientati e “interminabilmente privi di ogni marca di esistenza positiva”. La collaborazione tra anziani e giovani deve nascere dalla comune percezione di trovarsi sulla soglia di un nuovo mondo, dentro una crisi dalla quale gli scenari futuri che potrebbero presentarsi romperanno ogni residuale collegamento con le tradizioni millenarie passate.