Tempi di crisi, tempi filosofici

Viviamo tempi filosofici, oltre che molto tecnologici e digitali. Filosofici lo sono perché siamo dentro una grande crisi che contiene una infinità di crisi emergenti. Forse prevedibili ma che non riusciamo più a comprendere, affrontare e superare con concetti, formule, modelli e teorie (nebbie) universali tradizionali varie.

Giustizia algoritmica (POV #25)

Cathy O’Neil vs Virginia Eubanks: Chi decide davvero quando un algoritmo decide? Sempre più decisioni che incidono sulla vita delle persone non vengono prese da esseri umani ma da sistemi automatici. Software che selezionano i candidati a un lavoro, punteggi che determinano l’accesso a un prestito, algoritmi che stabiliscono chi può ricevere un sussidio. Quando questi strumenti entrano nei processi pubblici e privati, il confine tra amministrazione tecnica e scelta politica diventa meno visibile. Le decisioni appaiono oggettive, basate sui dati. Ma chi definisce i criteri e risponde degli effetti? Negli ultimi anni le istituzioni europee hanno iniziato a riconoscere che alcune applicazioni dell’intelligenza artificiale incidono direttamente sui diritti. Per questo gli algoritmi usati nel lavoro, nel credito e nel welfare sono considerati “ad alto rischio in quanto può determinare opportunità e limiti di vita senza un reale spazio di contestazione. In questo contesto si collocano due voci ormai centrali nel dibattito internazionale: Cathy O’Neil e Virginia Eubanks. O’Neil, matematica e data scientist, ha definito molti modelli decisionali automatizzati “armi di distruzione matematica”, sistemi difficili da contestare che trasformano dati incompleti in decisioni definitive, spesso rafforzando le disuguaglianze sociali sotto l’apparenza della neutralità statistica. Eubanks, politologa, osserva invece gli algoritmi dal punto di vista del welfare. In Automating Inequality mostra come le tecnologie usate per gestire sussidi e assistenza negli Stati Uniti trasformino la vulnerabilità economica in un problema di sorveglianza e controllo, creando una sorta di “burocrazia digitale della povertà”. Il problema non riguarda solo la qualità tecnica dei modelli, ma la natura stessa della decisione pubblica. Se la selezione di un lavoratore, l’assegnazione di un mutuo o l’accesso a un servizio essenziale vengono affidati a sistemi automatizzati, chi resta responsabile dell’esito? E quale spazio rimane per il dissenso quando le scelte appaiono come il risultato inevitabile di un calcolo?

Contro la delega del pensiero: ripartire da Umberto Eco per governare l’IA

19 febbraio 2026: Dieci anni senza Umberto Eco. Oggi, più che mai, è lui a parlarci del nostro presente. ChatGPT, Gemini e gli altri LLM sono, per dirla con il Professore, le massime espressioni di “macchina pigra”. Producono sintassi, ma non semantica. Calcolano probabilità, ma non creano senso. Mentre il mondo continua ad interrogarsi su reti neurali, algoritmi, bias e (presunta) intelligenza non umana, sono tornato su alcuni lasciti di Eco strettamente collegati ad una contemporaneità sempre più AI/DATA-DRIVEN. Non ci serviva un profeta per prevedere l’IA generativa, ma forse ci serve un semiologo per sopravviverle.

Quando l’intelligenza diventa un lusso che non possiamo più permetterci

Quando scrivo che l'intelligenza sta diventando un lusso che non possiamo più permetterci, non uso una metafora ad effetto né cedo alla tentazione del titolo provocatorio fine a se stesso. Parlo di qualcosa di molto concreto, di una trasformazione silenziosa ma inesorabile che sta ridisegnando i confini di chi avrà accesso al pensiero profondo e chi invece rimarrà imprigionato nella superficie scintillante di un'esistenza cognitivamente impoverita. È una tragedia che si consuma in silenzio, senza drammi visibili, con la discrezione inquietante delle ingiustizie che nessuno vuole nominare perché nominarle significherebbe assumersi la responsabilità di cambiarle.

L’intelligenza è una relazione

Da quando i modelli generativi sono entrati nella conversazione pubblica, abbiamo iniziato a parlare di intelligenza artificiale come di un nuovo soggetto: sempre più potente, sempre più autonomo, quasi una mente. Ma cosa accade se cambiamo prospettiva? Se l’intelligenza non fosse una proprietà del singolo sistema, ma qualcosa che emerge dalle relazioni tra sistemi?

Esperti di IA? Sì. Ma non nel modo in cui pensiamo.

Parliamo spesso di “esperti di intelligenza artificiale” come se fosse una categoria compatta, definita, stabile. Ma l’AI non è un oggetto unico: è un territorio in continua espansione, fatto di ricerca, ingegneria, orchestrazione, agenti autonomi, impatti organizzativi ed etici. In questo scenario, forse la domanda non è se gli esperti esistano, ma cosa significhi davvero esserlo oggi. In un ecosistema che evolve più rapidamente dei nostri tempi di apprendimento, la competenza non è un’etichetta definitiva, ma una posizione da abitare con consapevolezza.

Capitalismo della Sorveglianza vs Biodiversità del Pensiero

Biodiversità del Pensiero: la difesa ad oltranza E’ la battaglia a cui siamo tutti chiamati, oggi. Il capitalismo della sorveglianza vive di previsione e standardizzazione dei comportamenti; chiaramente più i soggetti sono leggibili, tracciabili e statisticamente coerenti, più diventano economicamente valorizzabili e, in questo senso, la standardizzazione cognitiva (gusti simili, linguaggi simili, reazioni simili) non è un effetto collaterale, ma una condizione funzionale alla monetizzazione dei dati.

L'Effetto Rorschach Collettivo: anatomia di un concetto che non muore mai

Quando ho conversato con un'AI sul fatto di come mai i dibattiti sull'intelligenza artificiale sembrano rivelare più noi stessi che la tecnologia, mi ha risposto coniando la formula "Effetto Rorschach Collettivo" — presentandola come un'intuizione originale emersa dalla nostra conversazione. O almeno così pareva. Suonava bella, perfetta. Troppo. Scavando un po', ho scoperto che quella formula non era affatto nuova: esisteva già in pubblicazioni di pochi giorni prima, aveva una genealogia che risaliva a Sherry Turkle (MIT, 1980), era passata attraverso l'arte concettuale di Agnieszka Kurant (2019) e la critica etica di Margaret Mitchell (2021), ed era diventata un meme intellettuale applicato a decine di contesti diversi negli ultimi quarant'anni. L'AI stava riciclando. E io stavo documentando empiricamente il fenomeno stesso che stavamo discutendo: la tendenza a proiettare significati su sistemi ambigui credendo di scoprire qualcosa di nuovo.

Matrix: quando il futuro bussò alla porta. l’IA tra finzione e imitazione

di Luca Sesini e Beppe Carrella - Matrix mescolava tutto: filosofia e letteratura, cyberpunk e manga, Baudrillard e Philip K. Dick, Orwell e Ghost in the Shell, Neuromancer di Gibson. Un cocktail esplosivo che restituiva una visione potente e inquietante: l'IA non solo imita l'uomo, ma lo supera, lo controlla, lo priva del suo libero arbitrio. Quella che chiamiamo "intelligenza" è simulazione pura: una risposta calcolata, non una riflessione autentica. L'IA riceve input, elabora secondo regole stabilite da chi l'ha costruita, restituisce output. Non pensa. Non desidera. Non sceglie.

Dal Mondo Nuovo alla Nuova Sostenibilità: Etica digitale e Inclusione in Brave New World e 1984

di Luca Sesini e Beppe Carrella La sostenibilità digitale si propone come antidoto alle derive tecnologiche contemporanee, perché non riguarda soltanto aspetti tecnici, ma investe anche dimensioni culturali e politiche. Non basta limitarsi a ridurre l’impatto ambientale dell’IT — come il consumo energetico dei data center — occorre ripensare profondamente il ruolo della tecnologia nella società. Promuovere un uso etico e consapevole degli strumenti digitali significa orientare la trasformazione digitale verso obiettivi di sviluppo sostenibile, inclusivo e responsabile. La tecnologia, in sé, non è né virtuosa né dannosa: è il modo in cui la impieghiamo a determinarne gli effetti