On Mediation, Responsibility, and Genealogy as Method: A Response to Francesco Varanini

Francesco Varanini’s response to my essay Rethinking Meaning in the Age of AI, published on Stultifera Navis, approaches its subject with a seriousness of ethical intent that deserves recognition. His concern is clearly directed toward responsibility, judgment, and the conditions under which ethical agency remains possible in a technological environment increasingly shaped by automated systems. The difficulty lies elsewhere. His critique repeatedly misplaces the object under discussion, relying on a metaphor of enclosure that substitutes for analysis and attributes to my work positions it explicitly resists.

Dalla sicurezza elettrica all'etica algoritmica: storia degli standard tecnologici

Come l'elettricità un secolo fa, l'IA promette di rivoluzionare ogni aspetto della nostra esistenza, ma porta con sé rischi inediti: dalla discriminazione algoritmica alla perdita di controllo sui processi decisionali, dall'opacità dei sistemi alla vulnerabilità dei dati sensibili. E come allora, anche oggi la risposta passa attraverso la standardizzazione: lo standard ISO/IEC 42001:2023 rappresenta il primo tentativo globale di creare un sistema di gestione per l'intelligenza artificiale.

Rethinking Meaning in the Age of AI? Direi piuttosto: Uscire dalla scatola

L'articolo di Owen Matson 'Rethinking Meaning in the Age of AI', apparso qui sulla 'Stultifera Navis', pone questioni molto interessanti. Nell'Age of AI macchine rimodellano gli ambienti in cui prendono forma il senso, il giudizio e la responsabilità umani. Ma l'obbligo etico rimane legato a forme di vita capaci di rispondere. Per rispondere è necessario lasciar perdere la fumosa filosofia che giustappone oggi umani e macchine, tendendo a considerarli inscindibili, chiusi insieme in una scatola. Serve uscire dalla scatola. Tornare alla saggezza umana. Vedremo allora che la responsabilità della situazione presente non ricade solo sui tecnici che progettano e sviluppano, né solo su legislatori e politici, chiamati a dettare norme. La responsabilità ricade su ogni cittadino, che è chiamato a capire, a tenersi lontano dal pensiero in scatola, e a pensare da sé. La responsabilità ricade su ognuno di noi.

Dentro il bozzolo dell’infocrazia: come l’AI sta trasformando le echo chamber in chat private

Sappiamo che i social non sono neutrali, quello che vediamo è il risultato di scelte algoritmiche pensate per massimizzare attenzione e coinvolgimento. Ma stiamo facendo lo stesso ragionamento sulle conversazioni con l’AI? Temo che le echo chamber non stiano sparendo, ma (solo) diventando "private". In questo articolo mi sono chiesto cosa succede quando una AI non ci espone a opinioni simili alle nostre, ma ci restituisce una versione ordinata, coerente e spesso rassicurante del nostro stesso pensiero. Il pericolo non è la disinformazione esplicita, ma la conferma sistematica. Ritrovo qui l’idea di hashtag#infocrazia, di Byung Chul Han, dove l’informazione non viene negata, viene modellata ma anche una versione postmoderna della metafora di Matrix dove non si parla più di una simulazione unica, ma di milioni di bozzoli cognitivi. Credo in gioco ci sia la libertà di pensiero, perchè questa passa dalla capacità di tollerare il dubbio.

L'uso dannoso della IA è già in atto

Yoshua Bengio, considerato da molti uno dei padrini dell'intelligenza artificiale, è da tempo in prima linea nella ricerca sull'apprendimento automatico. Negli ultimi anni le sue opinioni sulla tecnologia sono cambiate. Non a caso è impegnato a spiegare quali possano essere i rischi posti dall'intelligenza artificiale e a suggerire cosa si potrebbe fare per sviluppare un'intelligenza artificiale più sicura e attenta ai bisogni dell'essere uano.

Perché l'introduzione acritica dell'intelligenza artificiale nelle scuole è un problema?

Le linee guida ministeriali parlano di "utilizzo etico", di "mitigazione dei rischi", ma questo linguaggio rischia di fare l'effetto della proverbiale foglia di fico, a nascondere le pudenda di un'operazione che non può per definizione essere etica, né mitigata in alcun modo nel momento in cui a portarla avanti è Big Tech. La professoressa Daniela Tafani ci aiuta a comprenderne le ragioni:

“Io sono l’eco, tu sei l’origine” *

Dalle immagini di un film visionario, agli effetti che le moderne tecnologie producono nelle nostre vite. Di fronte allo strapotere di un pugno di aziende che gestiscono risorse economiche e tecnologie in misura inimmaginabile anche solo in un recente passato, è comprensibile e anche molto umano osservare con passivo disincanto il corso degli eventi, considerando inevitabile quanto accade. Eppure, è proprio nell’idea racchiusa in quella parola - inevitabile - che si cela il rischio di diventare inconsapevolmente complici di un disegno che nulla si cura di quanto accade alle nostre vite. Siamo tutti disposti a definire pazzi gli ideologi del transumanesimo, meno attenti a chiederci se in qualche modo non stiamo contribuendo a questa deriva. Una lunga riflessione e un invito a non abbandonare mai la curiosità, lo spirito critico, la libertà di pensare, a dispetto degli eventi.

Ghost Workers in the AI Machine: U.S. Data Worker Big Tech’s Exploitation

Come ormai sempre accade nel mondo virtuale nel quale amiamo nuotare, pochi si interrogano sugli effetti e sulle conseguenze della diffusione delle nuove tecnologie, per come sono oggi pensate, realizzate, gestite e distribuite. Ciò sta accadendo anche con l’intelligenza artificiale, che richiede l’impiego di migliaia di esseri umani per garantire l’efficienza e l’efficacia che le viene richiesta. Pochi si sentono coinvolti dal lato oscuro delle IA caratterizzato da sfruttamento e bassi salari, delocalizzazioni selvagge e colonizzazione nei paesi più poveri. Mondo civile, intellettuali, mondo accademico, politica, ecc. dovrebbero riflettere e aprire dibattiti pubblici su una realtà di sfruttamento del lavoro e in un futuro prossimo venturo di disoccupazione di massa. Altro che sorti progressive e fantasmagorie varie della IA. La riflessione dovrebbe interessare sia i numerosi licenziamenti in corso, di cui non è responsabile la IA ma i proprietari delle aziende che licenziano dopo avere introdotto la IA in azienda, sia il fatto che per funzionare l’IA ha bisogno di una grande quantità di lavoro. Peccato che sia precarizzato, povero, sfruttato, per lo più in paesi poveri. Ma non solo, come il progetto qui segnalato racconta.

Dove finiranno i siti web nell’era della Tecnolog-IA e delle macchine?

Uno dei dibattiti minori, per me più interessanti e curiosi del momento, sulle tante trasformazioni indotte dalla rivoluzione delle intelligenze artificiali generative è su che fine faranno i siti web, ora che i motori di ricerca, per soddisfare i loro bulimici bisogni di contenuti, di risorse e di guadagno, sono obbligati a cambiare modelli di business, algoritmi, logiche operative e funzionali, a causa del collasso di click che stanno sperimentando. Un collasso che sembra lento ma che potrebbe trovare una rapida e forte accelerazione nel breve tempo.

Chi governa l’AI? (POV #15)

Paolo Benanti e Yuval Noah Harari: due visioni a confronto su etica, potere e responsabilità dell’essere umano L’intelligenza artificiale è già un sistema di potere, decide cosa vediamo, come lavoriamo, quali informazioni circolano e quali vengono filtrate. Ma chi è responsabile di queste decisioni? Gli ingegneri che progettano gli algoritmi, le aziende che li controllano, gli Stati che li adottano, o una società che delega sempre più funzioni senza interrogarsi sulle conseguenze? Paolo Benanti e Yuval Noah Harari affrontano queste criticità da prospettive molto diverse. Il primo, teologo morale e consulente istituzionale, insiste sulla necessità di un’etica della responsabilità che preservi l’umano dall’artificiale. Il secondo, narratore della storia del genere umano (e non solo), osserva l’AI come una forza che rischia di ridefinire potere, libertà e persino il concetto di soggetto. Mettere a confronto Benanti e Harari significa andare oltre il dibattito tecnico sull’intelligenza artificiale e interrogarsi sul tipo di società che stiamo costruendo. Una società che utilizza la tecnologia come strumento, assumendosi la responsabilità delle decisioni, oppure una società che accetta di essere governata da soggetti privati, rinunciando progressivamente alla propria capacità di scelta?

How to Survive Artificial Intelligence: dialogo Stultifero con Giorgio Griziotti

Il termine "intelligenza artificiale" (IA) è diventato la parola (con)vincente degli ultimi tre anni, dall'arrivo sul mercato della ChatGPT, seguita a ruota da tutte le altre IA generative. A prevalere nella narrazione conformistica dominante è la celebrazione delle opportunità, delle possibilità di sviluppo e delle potenzialità delle nuove tecnolog-IA. Poi ci sono le narrazioni critiche, riflessive, finalizzate a suggerire un approfondimento per una migliore comprensione, non soltanto delle nuove tecnologie in sé, ma soprattutto dei loro effetti e delle loro conseguenze. Tra queste riflessioni c'è quella di Giorgio Griziotti, autore di un saggio, How to survive artificial intelligence. Intelligenza artificiale, tecnofascismo e guerra, nel quale invita a riflettere sul fatto di vivere dentro "una catastrofe in corso", riflessa in molte narrazioni sulle IA, opposte e semplificate, che stanno animando il dibattito pubblico.

Che ne sarà della ‘bella’ prosa argomentativa al tempo dell’AI?

Viviamo in un'epoca di preoccupazioni insistenti sull'intelligenza artificiale. Si discute di posti di lavoro a rischio, di bias algoritmici, di deepfake, di disinformazione, di scenari dove macchine superintelligenti sfuggono al controllo umano. Questi sono problemi reali e meritano l'attenzione che ricevono. Ma mentre il dibattito pubblico si concentra su queste minacce visibili e misurabili, un tipo diverso di trasformazione sta avvenendo quasi inosservato, nelle pratiche intellettuali ordinarie di milioni di persone colte. Sto parlando dell'abitudine crescente di delegare all'intelligenza artificiale la sintesi di testi e documenti - pratica che appare non solo innocua ma genuinamente utile, forse persino necessaria per gestire il sovraccarico informativo contemporaneo. Chi non ha usato almeno una volta uno strumento di sintesi per risparmiare tempo su un documento lungo? Chi non ha apprezzato la capacità dell'AI di estrarre i "punti chiave" da un saggio denso in pochi secondi? L'efficienza è considerevole, i benefici apparenti sono immediati. Eppure credo che questa pratica, proprio nella sua naturalezza e utilità evidente, nasconda un rischio culturale profondo: mettere fine a una tradizione millenaria, quella della bella prosa argomentativa.