NOVITA'[2051]
Giustizia algoritmica (POV #25)
Cathy O’Neil vs Virginia Eubanks: Chi decide davvero quando un algoritmo decide? Sempre più decisioni che incidono sulla vita delle persone non vengono prese da esseri umani ma da sistemi automatici. Software che selezionano i candidati a un lavoro, punteggi che determinano l’accesso a un prestito, algoritmi che stabiliscono chi può ricevere un sussidio. Quando questi strumenti entrano nei processi pubblici e privati, il confine tra amministrazione tecnica e scelta politica diventa meno visibile. Le decisioni appaiono oggettive, basate sui dati. Ma chi definisce i criteri e risponde degli effetti? Negli ultimi anni le istituzioni europee hanno iniziato a riconoscere che alcune applicazioni dell’intelligenza artificiale incidono direttamente sui diritti. Per questo gli algoritmi usati nel lavoro, nel credito e nel welfare sono considerati “ad alto rischio in quanto può determinare opportunità e limiti di vita senza un reale spazio di contestazione. In questo contesto si collocano due voci ormai centrali nel dibattito internazionale: Cathy O’Neil e Virginia Eubanks. O’Neil, matematica e data scientist, ha definito molti modelli decisionali automatizzati “armi di distruzione matematica”, sistemi difficili da contestare che trasformano dati incompleti in decisioni definitive, spesso rafforzando le disuguaglianze sociali sotto l’apparenza della neutralità statistica. Eubanks, politologa, osserva invece gli algoritmi dal punto di vista del welfare. In Automating Inequality mostra come le tecnologie usate per gestire sussidi e assistenza negli Stati Uniti trasformino la vulnerabilità economica in un problema di sorveglianza e controllo, creando una sorta di “burocrazia digitale della povertà”. Il problema non riguarda solo la qualità tecnica dei modelli, ma la natura stessa della decisione pubblica. Se la selezione di un lavoratore, l’assegnazione di un mutuo o l’accesso a un servizio essenziale vengono affidati a sistemi automatizzati, chi resta responsabile dell’esito? E quale spazio rimane per il dissenso quando le scelte appaiono come il risultato inevitabile di un calcolo?
Capitalismo della Sorveglianza vs Biodiversità del Pensiero
Biodiversità del Pensiero: la difesa ad oltranza E’ la battaglia a cui siamo tutti chiamati, oggi. Il capitalismo della sorveglianza vive di previsione e standardizzazione dei comportamenti; chiaramente più i soggetti sono leggibili, tracciabili e statisticamente coerenti, più diventano economicamente valorizzabili e, in questo senso, la standardizzazione cognitiva (gusti simili, linguaggi simili, reazioni simili) non è un effetto collaterale, ma una condizione funzionale alla monetizzazione dei dati.
Democrazia algoritmica (POV #22)
Jaron Lanier e Cathy O’Neil: Gli algoritmi possono essere compatibili con la democrazia, oppure la loro logica economica e tecnica la sta lentamente svuotando dall’interno? Viviamo immersi nei dati, ma comprendiamo sempre meno i dispositivi che li trasformano in decisioni. Che cosa accade quando scelte politiche, economiche e sociali vengono delegate a modelli matematici? Gli algoritmi promettono efficienza, oggettività, razionalità. Ma chi li progetta? Chi li governa? Chi ne subisce gli effetti? La cosiddetta “democrazia algoritmica” si presenta così come una forma di governo senza elezioni né dibattito pubblico, un potere incorporato nei sistemi che regolano l’accesso al credito, la selezione del lavoro, la circolazione delle informazioni, le pratiche di sicurezza e sorveglianza. Non è una nuova istituzione, ma un’infrastruttura decisionale che agisce sotto la soglia della visibilità politica.
Il potere invisibile dell’AI (POV #21)
Shoshana Zuboff e Evgeny Morozov: L’AI è una nuova fase del capitalismo o un modo per trasformare decisioni politiche in soluzioni tecniche? Quando parliamo di intelligenza artificiale, raramente ci limitiamo a parlare di una tecnologia. Dietro l’AI si muovono questioni che riguardano l’economia, il potere, i modelli di società che stiamo costruendo. L’AI può essere letta come il motore di una nuova fase del capitalismo, fondata sull’estrazione dei dati e sulla previsione dei comportamenti futuri. Ma può anche essere interpretata come il prodotto di una narrazione che trasforma temi politici in problemi tecnici e conflitti sociali in questioni di efficienza. Shoshana Zuboff ed Evgeny Morozov rappresentano due tra le voci più autorevoli di questa critica. La prima analizza l’AI come infrastruttura economica del capitalismo della sorveglianza, un sistema che monetizza l’esperienza umana convertendola in informazione predittiva. Il secondo la interpreta come espressione di un’ideologia tecnologica che promette soluzioni automatiche e, così facendo, sottrae le scelte collettive al dibattito democratico. Il loro confronto non riguarda soltanto il funzionamento degli algoritmi, ma il modo in cui il digitale sta ridefinendo il potere nel XXI secolo.
Dioniso macchinico
Un testo scritto a quattro mani con Francesco Pizzi. Per una nuova riunificazione - Negli ultimi anni spesso si sente parlare di dionisiaco intendendo con questo termine, a vario grado e intensità, concetti avvicinabili a quelli di liberazione, caos, sensualità, abbandono, rapimento rapsodico e via discorrendo. Il tutto contrapposto a una razionalità monolitica, asfissiante, totalitaria: la famosa “gabbia d’acciaio” di weberiana memoria.
Intervista ImPossibile a George Orwell (IIP #04)
L’AI come nuovo totalitarismo George Orwell (pseudonimo di Eric Arthur Blair, 1903–1950) è uno degli autori più influenti del XX secolo. Scrittore, giornalista e combattente antifranchista, ha denunciato i meccanismi del potere e della manipolazione con una chiarezza che ancora oggi inquieta. I suoi due romanzi più celebri – La fattoria degli animali (1945) e 1984 (1949) – sono parabole del totalitarismo moderno: il primo una satira contro la degenerazione del socialismo reale, il secondo una visione profetica della società della sorveglianza e del controllo mentale. Orwell credeva che la menzogna organizzata fosse la forma più alta di potere e che la verità, anche quando ridotta a una formula banale come due più due fa quattro, fosse l’ultimo baluardo della libertà umana. Cosa penserebbe il creatore del Grande Fratello davanti alla nascita di un’intelligenza che osserva tutto, capace di conoscere i nostri desideri prima ancora che li formuliamo?
L’illusione di sfuggire alla sorveglianza tecnologica
Nel 2002 per il filosofo, scrittore e urbanista Paul Virilio la sorveglianza era “ciò che sta arrivando" (“ce que arrive”), un incidente del futuro destinato a produrre effetti importanti e a suggerire una migliore messa a fuoco del fenomeno (Privacy, un tema sempre all'ordine del giorno), per comprenderlo più che per reprimerlo, una possibilità quest'ultima tanto illusoria quanto diventata ormai remota, se non impossibile.