“Io sono l’eco, tu sei l’origine” *

Dalle immagini di un film visionario, agli effetti che le moderne tecnologie producono nelle nostre vite. Di fronte allo strapotere di un pugno di aziende che gestiscono risorse economiche e tecnologie in misura inimmaginabile anche solo in un recente passato, è comprensibile e anche molto umano osservare con passivo disincanto il corso degli eventi, considerando inevitabile quanto accade. Eppure, è proprio nell’idea racchiusa in quella parola - inevitabile - che si cela il rischio di diventare inconsapevolmente complici di un disegno che nulla si cura di quanto accade alle nostre vite. Siamo tutti disposti a definire pazzi gli ideologi del transumanesimo, meno attenti a chiederci se in qualche modo non stiamo contribuendo a questa deriva. Una lunga riflessione e un invito a non abbandonare mai la curiosità, lo spirito critico, la libertà di pensare, a dispetto degli eventi.

Ghost Workers in the AI Machine: U.S. Data Worker Big Tech’s Exploitation

Come ormai sempre accade nel mondo virtuale nel quale amiamo nuotare, pochi si interrogano sugli effetti e sulle conseguenze della diffusione delle nuove tecnologie, per come sono oggi pensate, realizzate, gestite e distribuite. Ciò sta accadendo anche con l’intelligenza artificiale, che richiede l’impiego di migliaia di esseri umani per garantire l’efficienza e l’efficacia che le viene richiesta. Pochi si sentono coinvolti dal lato oscuro delle IA caratterizzato da sfruttamento e bassi salari, delocalizzazioni selvagge e colonizzazione nei paesi più poveri. Mondo civile, intellettuali, mondo accademico, politica, ecc. dovrebbero riflettere e aprire dibattiti pubblici su una realtà di sfruttamento del lavoro e in un futuro prossimo venturo di disoccupazione di massa. Altro che sorti progressive e fantasmagorie varie della IA. La riflessione dovrebbe interessare sia i numerosi licenziamenti in corso, di cui non è responsabile la IA ma i proprietari delle aziende che licenziano dopo avere introdotto la IA in azienda, sia il fatto che per funzionare l’IA ha bisogno di una grande quantità di lavoro. Peccato che sia precarizzato, povero, sfruttato, per lo più in paesi poveri. Ma non solo, come il progetto qui segnalato racconta.

Dove finiranno i siti web nell’era della Tecnolog-IA e delle macchine?

Uno dei dibattiti minori, per me più interessanti e curiosi del momento, sulle tante trasformazioni indotte dalla rivoluzione delle intelligenze artificiali generative è su che fine faranno i siti web, ora che i motori di ricerca, per soddisfare i loro bulimici bisogni di contenuti, di risorse e di guadagno, sono obbligati a cambiare modelli di business, algoritmi, logiche operative e funzionali, a causa del collasso di click che stanno sperimentando. Un collasso che sembra lento ma che potrebbe trovare una rapida e forte accelerazione nel breve tempo.

Chi governa l’AI? (POV #15)

Paolo Benanti e Yuval Noah Harari: due visioni a confronto su etica, potere e responsabilità dell’essere umano L’intelligenza artificiale è già un sistema di potere, decide cosa vediamo, come lavoriamo, quali informazioni circolano e quali vengono filtrate. Ma chi è responsabile di queste decisioni? Gli ingegneri che progettano gli algoritmi, le aziende che li controllano, gli Stati che li adottano, o una società che delega sempre più funzioni senza interrogarsi sulle conseguenze? Paolo Benanti e Yuval Noah Harari affrontano queste criticità da prospettive molto diverse. Il primo, teologo morale e consulente istituzionale, insiste sulla necessità di un’etica della responsabilità che preservi l’umano dall’artificiale. Il secondo, narratore della storia del genere umano (e non solo), osserva l’AI come una forza che rischia di ridefinire potere, libertà e persino il concetto di soggetto. Mettere a confronto Benanti e Harari significa andare oltre il dibattito tecnico sull’intelligenza artificiale e interrogarsi sul tipo di società che stiamo costruendo. Una società che utilizza la tecnologia come strumento, assumendosi la responsabilità delle decisioni, oppure una società che accetta di essere governata da soggetti privati, rinunciando progressivamente alla propria capacità di scelta?

HOW TO SURVIVE ARTIFICIAL INTELLIGENCE: dialogo Stultifero con Giorgio Griziotti

Il termine "intelligenza artificiale" (IA) è diventato la parola (con)vincente degli ultimi tre anni, dall'arrivo sul mercato della ChatGPT, seguita a ruota da tutte le altre IA generative. A prevalere nella narrazione conformistica dominante è la celebrazione delle opportunità, delle possibilità di sviluppo e delle potenzialità delle nuove tecnolog-IA. Poi ci sono le narrazioni critiche, riflessive, finalizzate a suggerire un approfondimento per una migliore comprensione, non soltanto delle nuove tecnologie in sé, ma soprattutto dei loro effetti e delle loro conseguenze. Tra queste riflessioni c'è quella di Giorgio Griziotti, autore di un saggio, How to survive artificial intelligence. Intelligenza artificiale, tecnofascismo e guerra, nel quale invita a riflettere sul fatto di vivere dentro "una catastrofe in corso", riflessa in molte narrazioni sulle IA, opposte e semplificate, che stanno animando il dibattito pubblico.

Che ne sarà della ‘bella’ prosa argomentativa al tempo dell’AI?

Viviamo in un'epoca di preoccupazioni insistenti sull'intelligenza artificiale. Si discute di posti di lavoro a rischio, di bias algoritmici, di deepfake, di disinformazione, di scenari dove macchine superintelligenti sfuggono al controllo umano. Questi sono problemi reali e meritano l'attenzione che ricevono. Ma mentre il dibattito pubblico si concentra su queste minacce visibili e misurabili, un tipo diverso di trasformazione sta avvenendo quasi inosservato, nelle pratiche intellettuali ordinarie di milioni di persone colte. Sto parlando dell'abitudine crescente di delegare all'intelligenza artificiale la sintesi di testi e documenti - pratica che appare non solo innocua ma genuinamente utile, forse persino necessaria per gestire il sovraccarico informativo contemporaneo. Chi non ha usato almeno una volta uno strumento di sintesi per risparmiare tempo su un documento lungo? Chi non ha apprezzato la capacità dell'AI di estrarre i "punti chiave" da un saggio denso in pochi secondi? L'efficienza è considerevole, i benefici apparenti sono immediati. Eppure credo che questa pratica, proprio nella sua naturalezza e utilità evidente, nasconda un rischio culturale profondo: mettere fine a una tradizione millenaria, quella della bella prosa argomentativa.

Intervista ImPossibile a Karl Marx (IIP #14)

L’AI e il futuro del lavoro Come cambia il capitalismo nell’epoca dell’intelligenza artificiale? È da questa domanda che nasce l’idea di interrogare Karl Marx come strumento critico per leggere un presente in cui lavoro, potere e tecnologia si stanno trasformando con una rapidità senza precedenti. Marx è uno dei pensatori più influenti dell’età moderna perché ha analizzato con rigore il legame tra struttura economica e rapporti sociali. Secondo lui, la produzione materiale non è soltanto un’attività tecnica, ma il terreno su cui si modellano le istituzioni, le identità e le idee. È l’“essere sociale”, afferma, a determinare ciò che pensiamo e il modo in cui viviamo insieme. Questa prospettiva è particolarmente utile oggi, quando l’intelligenza artificiale riorganizza la produzione, misura il tempo, automatizza il lavoro, governa il flusso dei dati e ridisegna i rapporti di forza tra chi possiede le piattaforme e chi vi lavora dentro. La sua analisi delle classi sociali, della produzione di valore e delle dinamiche di potere permette di leggere l’AI non come una semplice innovazione tecnica, ma come una nuova fase del capitalismo, con conseguenze profonde su lavoro, diritti e democrazia. Questa intervista impossibile adotta il metodo di Marx per interrogarlo sull’intelligenza artificiale non come semplice innovazione tecnica, ma come forza sociale. L’obiettivo è capire che cosa l’AI produce nella struttura della società, quali rapporti di potere rafforza, quali forme di lavoro trasforma, quali disuguaglianze accentua o ridisegna.

Intelligenza collettiva o artificiale (POV #14)

Pierre Lévy e Geoffrey Hinton: Il futuro del pensiero umano L’apprendimento è ancora un atto sociale o è diventato un calcolo statistico? Che ruolo restano all’interpretazione, alla responsabilità, al legame tra le persone? E soprattutto, chi controllerà il futuro del sapere? Oggi ci troviamo davanti a un bivio. Da una parte l’idea di un’intelligenza distribuita tra individui e comunità; dall’altra la costruzione di sistemi artificiali che potrebbero rendere marginale il contributo umano. Due visioni, due epoche, due modi di intendere il pensiero. Pierre Lévy - filosofo, semiologo e tra i più importanti studiosi della cultura digitale - ha immaginato negli anni ’90 il cyberspazio come una nuova sfera del sapere condiviso. Geoffrey Hinton - neuroscienziato, pioniere del deep learning, Premio Turing e Nobel per la Fisica - oggi mette in guardia dal potere autonomo delle reti neurali che lui stesso ha contribuito a sviluppare. Lévy e Hinton incarnano così una trasformazione profonda, dalla rete come comunità cognitiva alla rete come possibile entità cognitiva autonoma.

Il Biscotto Quantico

Un breve racconto pre natalizio nato da una riflessione sul tema della trasparenza dei dati di addestramento dei LLM commerciali. Come si sa, oggi come oggi, nessuno sa con esattezza che dati abbiano usato OpenAi per addestrare ChatGPT, Anthropic per Claude, Google per Gemini. Che importa, si dirà. Importa, importa. Quei dati, la loro composizione, culturale, linguistica, epidemica, condizionano il modo in cui i LLM ci parlano, rispondono, costruiscono "opinione" spacciandola per conoscenza. Conoscere la composizione dei dati di addestramento è quindi questione di democrazia. Buona lettura.

Intervista ImPossibile a Jacques Lacan (IIP #13)

Desiderio e AI Oggi viviamo circondati da tecnologie che classificano, predicono e ottimizzano. In questo scenario, l’insegnamento di Jacques Lacan torna sorprendentemente attuale. Che cos’è l’Altro nel contesto dell’intelligenza artificiale? Che forma assume il desiderio quando interagiamo con dispositivi che non parlano ma calcolano? E che ne è del soggetto quando il linguaggio diventa un’infrastruttura tecnica e automatizzata? L’opera di Lacan ha trasformato il modo di intendere la psicoanalisi, rendendola un discorso rigoroso sul linguaggio e sul desiderio. Per lui l’inconscio non è un luogo oscuro colmo di pulsioni, ma una struttura composta da parole, segni e connessioni che seguono una loro logica interna. L’intervista impossibile che segue prova a rimettere in circolo il suo pensiero, facendolo risuonare nel presente e mostrando come il suo discorso continui a sollevare le domande fondamentali del nostro rapporto con l’AI, il potere e il desiderio.

Tutti parlano di AI, Python, velocità... ma io voglio parlarvi di un vecchio amico silenzioso: Java

Sì, avete capito bene. Quel linguaggio che molti considerano noioso è, in realtà, la spina dorsale del nostro mondo digitale. Vorrei spiegarvi, per chi non è un addetto ai lavori, perché Java è come il latino: una struttura rigorosa che ci insegna a pensare con disciplina in un mondo fluido e veloce in cui abbiamo bisogno di stabilità.

Oltre l’intelligenza artificiale: l’intelligenza ibrida tra creatività, apprendimento e responsabilità

L’intelligenza artificiale generativa obbliga a rivedere il modo in cui concepiamo creatività, e quindi identità; apprendimento, e quindi circolazione della conoscenza; etica, e quindi responsabilità. Non si tratta soltanto di stabilire che cosa l’IA può o non può fare, ma di chiarire che cosa vogliamo resti umano, cioè quali competenze intendiamo preservare e quali forme di convivenza vogliamo promuovere, ma anche che cosa vogliamo diventi l’umano. La tecnologia, per quanto potente, non decide al nostro posto: fornisce possibilità, invita a realizzare scenari. Spetta alle comunità politiche, alle istituzioni educative e ai singoli individui trasformare queste possibilità e opportunità in scelte coerenti con l’idea di umanità che intendono difendere e sviluppare.

Ecologia e Intelligenza Artificiale (POV #13)

Timothy Morton e Massimo Chiriatti: due modi di pensare la coesistenza tra umani, macchine e pianeta Che cosa significa parlare di intelligenza artificiale in un mondo colpito dalla crisi climatica? È solo una questione di algoritmi e sostenibilità energetica, oppure l’AI ci costringe a ripensare le categorie con cui interpretiamo la realtà, la responsabilità e il vivente? Il confronto tra Timothy Morton e Massimo Chiriatti permette di affrontare la domanda da due lati opposti: il pensiero ecologico radicale e la cultura tecnologica del limite. Da una parte Morton, teorico dell’“iperoggetto”, dissolve le frontiere tra umano, macchina e biosfera, l’AI non è altro che un nuovo attore nella rete planetaria degli oggetti che ci precedono e ci eccedono. Dall’altra Chiriatti, economista e tecnologo, rivendica una postura umana e normativa, l’AI resta un “esecutore incosciente”, potente ma privo di semantica, che va ricondotto dentro un orizzonte etico e politico.

Intervista ImPossibile a Pablo Picasso (IIP #12)

Il minotauro e l’algoritmo Che cosa resta dell’istinto creativo nell’epoca delle immagini generate automaticamente? In che modo la tecnologia sta trasformando la nostra idea di autenticità, responsabilità e libertà artistica? Da una parte c’è il minotauro, la creatura metà uomo e metà animale che Picasso. Dall’altra parte c’è l’algoritmo, il simbolo della nostra epoca digitale, una logica impersonale che ordina, calcola e genera immagini decidendo cosa possiamo vedere ogni giorno. Accostare queste due figure significa raccontare la tensione tra ciò che nasce dall’esperienza umana e ciò che viene prodotto da sistemi che imitano tutto senza vivere nulla. Il Minotauro rappresenta la parte irrazionale, emotiva e imprevedibile della creazione, l’Algoritmo, la macchina che combina e simula. Pablo Picasso è stato un’esplosione di energia creativa e distruttiva al tempo stesso, che ha spesso usato come suo alter ego, il minotauro, una figura istintiva, capace di incarnare la forza creativa ma anche la violenza del mondo. Un artista che ha denunciato la violenza, ha rifiutato compromessi e ha sempre rivendicato la responsabilità dell’artista. La sua visione dell’arte è ancora attuale, come ad esempio l’idea che “l’arte sia una menzogna che ci permette di conoscere la verità”. Questa Intervista ImPossibile prova a interrogarlo per un confronto immaginario su arte, falsificazione, allucinazioni algoritmiche e potere delle immagini in un periodo in cui il confine tra vero e falso è diventato il cuore del dibattito sulla crisi dell’autenticità, sulla delega creativa e sul futuro della libertà artistica nell’era delle macchine generative.

Il mito dell’I.A.

Lo studio dei miti ha spesso evidenziato alcune analogie di fondo anche fra narrazioni appartenenti a culture molto diverse e lontane fra loro, con somiglianze presenti nei contenuti o con argomenti fondamentalmente simili che sovraccaricano tematiche apparentemente uniche.

Politica dell’AI (POV #12)

Shoshana Zuboff e Peter Thiel: due visioni inconciliabili sul futuro del digitale. Chi controlla l’intelligenza artificiale e la sua diffusione in ogni ambito della vita sociale? Nel dibattito pubblico convivono due narrazioni opposte. Da un lato c’è chi vede la tecnologia come una forza inevitabile, capace di migliorare il mondo liberandoci da costi, errori e intermediazioni. Dall’altro, chi interpreta la nuova infrastruttura digitale come un sistema di sorveglianza capillare e di estrazione del valore, guidato da pochi attori privati con un’influenza senza precedenti. In questo nuovo articolo di POV metto a confronto due figure centrali nel dibattito sull’AI. Shoshana Zuboff, sociologa di Harvard, ha analizzato per oltre un decennio la logica del “capitalismo della sorveglianza”, un modello economico che trasforma ogni gesto, emozione o relazione in dati da monetizzare. All’estremo opposto c’è Peter Thiel, imprenditore e investitore della Silicon Valley, simbolo dell’ideologia libertaria della tecnologia, l’idea che l’innovazione sia di per sé un destino, e che le regole democratiche non possano e non debbano rallentare la corsa al futuro. Mettere queste due prospettive una accanto all’altra significa interrogarsi su la sovranità individuale, il ruolo delle istituzioni democratiche e la capacità delle società di mantenere controllo e responsabilità sulle tecnologie che le governano. Chi decide cosa vediamo? Chi raccoglie i nostri dati? Chi può prevedere e orientare i nostri comportamenti? Come possiamo difendere libertà e diritti in un mondo dove le decisioni vengono sempre più spesso delegate ad algoritmi e piattaforme private? Zuboff e Thiel, pur partendo da visioni opposte, ci aiutino a comprendere quale forma di potere stiamo consegnando al digitale.