NOVITA'[1759]
Chi ha diritto al futuro? (POV #24)
Mariana Mazzucato vs Nick Srnicek: lavoro, reddito e dignità nel capitalismo dell’AI Se l’automazione riduce il bisogno di lavoro umano, la dignità sociale deve continuare a dipendere dall’occupazione o diventare un diritto incondizionato? Chi decide, oggi, che cosa ha valore nell’economia dell’AI? Queste domande tornano al centro del conflitto politico e non riguardano solo il futuro del lavoro, ma il rapporto tra produzione, reddito e cittadinanza in società sempre più automatizzate. Il confronto tra Mariana Mazzucato e Nick Srnicek si colloca esattamente su questa questione. Mazzucato, economista dell’innovazione e teorica dello Stato imprenditore, sostiene che la tecnologia debba essere orientata da politiche pubbliche capaci di creare valore sociale e lavoro di qualità. Srnicek, filosofo politico dell’economia digitale e teorico del post-lavoro, parte invece dalla crisi strutturale del lavoro salariato nel capitalismo delle piattaforme. L’automazione, per lui, apre la possibilità di separare reddito e occupazione e di immaginare nuove forme di libertà fondate su tempo liberato e sicurezza economica universale. Due prospettive divergenti, ma accomunate del medesimo obiettivo, ridefinire il significato della dignità sociale in un’economia in cui il lavoro non è più la misura esclusiva del valore umano.
Il paradiso artificiale dell'intelligenza
Questa mattina, mentre attraversavo la città in sella allo scooter (momento meraviglioso per pensare), mi è venuto in mente che il termine "artificiale" ha sempre avuto, fino a un po' di tempo fa, una connotazione non propriamente positiva. Allora sono andato a cercare con la memoria usi del termine: paradisi artificiali, fiori artificiali, ecc. Poi, fermo ad un semaforo, mi sono detto: "vedi, però, come cambia la percezione collettiva del linguaggio, eh? Oggi con l'AI la parola è diventata una bella parola. - sì, d'accordo, parto, scusa, scusa - era venuto verde". Beh, com'è come non è, come ormai faccio sempre, tornato a casa ho aperto Perplexity (versione Claude 4.5) e ho cominciato a conversare con lui/lei/esso su queste riflessioni, che, come al solito, si sono espanse, dilatate, trasformate, arricchite. Ed allora, sempre come mio solito, con la conversazione con Perplexity sotto il braccio (per modo di dire), ho bussato alla porta di Claude (in una smagliante e scintillante versione Opus 4.6), con cui, in due o tre passaggi, ho scritto (?), generato, prodotto, il testo che segue. Come vedrete sono nella contraddizione con tutte le scarpe.
Esperti di IA? Sì. Ma non nel modo in cui pensiamo.
Parliamo spesso di “esperti di intelligenza artificiale” come se fosse una categoria compatta, definita, stabile. Ma l’AI non è un oggetto unico: è un territorio in continua espansione, fatto di ricerca, ingegneria, orchestrazione, agenti autonomi, impatti organizzativi ed etici. In questo scenario, forse la domanda non è se gli esperti esistano, ma cosa significhi davvero esserlo oggi. In un ecosistema che evolve più rapidamente dei nostri tempi di apprendimento, la competenza non è un’etichetta definitiva, ma una posizione da abitare con consapevolezza.
Gemello digitale, incubo reale
Stiamo entrando nell’epoca in cui non ci importa più se chi ci parla un essere vivente o la sua copia perfetta, ma solo virtuale, digitale, tecnologica?
L'Effetto Rorschach Collettivo: anatomia di un concetto che non muore mai
Quando ho conversato con un'AI sul fatto di come mai i dibattiti sull'intelligenza artificiale sembrano rivelare più noi stessi che la tecnologia, mi ha risposto coniando la formula "Effetto Rorschach Collettivo" — presentandola come un'intuizione originale emersa dalla nostra conversazione. O almeno così pareva. Suonava bella, perfetta. Troppo. Scavando un po', ho scoperto che quella formula non era affatto nuova: esisteva già in pubblicazioni di pochi giorni prima, aveva una genealogia che risaliva a Sherry Turkle (MIT, 1980), era passata attraverso l'arte concettuale di Agnieszka Kurant (2019) e la critica etica di Margaret Mitchell (2021), ed era diventata un meme intellettuale applicato a decine di contesti diversi negli ultimi quarant'anni. L'AI stava riciclando. E io stavo documentando empiricamente il fenomeno stesso che stavamo discutendo: la tendenza a proiettare significati su sistemi ambigui credendo di scoprire qualcosa di nuovo.
Intervista ImPossibile a Sigmund Freud (IIP #23)
La macchina e l’inconscio L’AI promette di analizzare comportamenti, prevedere desideri, automatizzare decisioni. Si presenta come uno strumento capace di leggere l’umano attraverso i dati, trasformando tracce digitali, linguaggi e abitudini in modelli predittivi. Ma può davvero comprendere l’essere umano? O rischia, al contrario, di ridurre la complessità psichica a un sistema di calcolo e previsione? Interrogare oggi Freud sull’intelligenza artificiale è un modo per indagare quanto dell’esperienza umana può essere tradotto in dati. Fondatore della psicoanalisi e teorico dell’inconscio, Freud ha mostrato che il comportamento umano non è guidato soltanto dalla razionalità o dall’interesse, ma attraversato da desideri, rimozioni, conflitti, fantasie e pulsioni che sfuggono alla coscienza. La sua teoria della mente - articolata tra Es, Io e Super-Io - ha incrinato l’idea moderna di un soggetto pienamente consapevole di sé, introducendo una frattura destinata a segnare tutto il pensiero contemporaneo. Oggi, a più di un secolo di distanza, l’intelligenza artificiale sembra riproporre una nuova promessa di conoscenza totale. Attraverso l’analisi dei dati e l’apprendimento automatico, le macchine sono in grado di individuare correlazioni, anticipare comportamenti, suggerire decisioni. In questa prospettiva, l’AI appare talvolta come una forma di psicoanalisi automatizzata, un sistema che classifica e prevede. Eppure la psicoanalisi non è mai stata una semplice tecnica di osservazione. Il sintomo, per Freud, non è un dato oggettivo da registrare, ma un messaggio da interpretare all’interno di una relazione. Il desiderio, una forza che si manifesta attraverso rimozioni e ritorni. Il sogno, una formazione dell’inconscio che parla per spostamenti e condensazioni. Da qui nasce la tensione tra psicoanalisi e intelligenza artificiale. Una macchina può riconoscere schemi, ma può interpretare il senso di un sintomo? Può distinguere tra comportamento e desiderio? Può comprendere ciò che nell’essere umano resta contraddittorio, non riducibile a una sequenza di dati? Questa intervista impossibile prova a immaginare le risposte di Freud di fronte all’AI, per utilizzare il suo pensiero come strumento critico nel presente. Se l’intelligenza artificiale rappresenta una delle tecnologie decisive del nostro tempo, la psicoanalisi resta uno dei dispositivi più radicali per interrogare l’idea stessa di soggetto. Mettere a confronto questi due contesti significa indagare il confine tra calcolo e desiderio, tra macchina e umano.
Una sola scheda
Non sempre ci accorgiamo di quando il nostro modo di cercare cambia. A volte smettiamo di esplorare non per mancanza di curiosità, ma perché una risposta arriva troppo in fretta. Questo testo nasce da una sensazione condivisa: il momento in cui approfondire inizia a sembrare superfluo. E il pensiero, senza rumore, diventa più corto.
Intelligenza artificiale, società e politica (POV #23)
Kate Crawfor e Yann LeCun: che cos’è davvero l’intelligenza artificiale? È una forma di intelligenza autonoma o, più semplicemente, un insieme di strumenti costruiti dall’essere umano per analizzare dati, fare previsioni e prendere decisioni? E, in questo scenario, chi detiene il potere, poche grandi aziende tecnologiche e governi, oppure una pluralità di soggetti in grado di orientarne lo sviluppo e l’uso? Affidare scelte a sistemi automatici impone di confrontarsi su questioni concrete. Come vengono tutelati i diritti delle persone, chi è responsabile quando un algoritmo produce errori o discriminazioni, e quali regole dovrebbero governare questi processi? Inoltre, in che modo l’intelligenza artificiale sta già trasformando il lavoro, l’organizzazione sociale e le istituzioni democratiche? Questo articolo affronta questi interrogativi attraverso alcuni temi, mettendo a confronto due figure autori centrali del dibattito contemporaneo sull’AI. Da un lato Kate Crawford, ricercatrice e studiosa dei rapporti tra intelligenza artificiale, potere e disuguaglianze sociali, nota per la sua analisi critica delle infrastrutture tecnologiche e dei loro impatti politici. Dall’altro Yann LeCun, informatico e pioniere del deep learning, tra i principali protagonisti dello sviluppo tecnico dell’AI e sostenitore di una visione più ottimista sulle sue potenzialità. Il confronto tra queste due prospettive consente di osservare l’intelligenza artificiale non solo come tecnologia, ma come questione politica e sociale, in cui scelte tecniche e responsabilità pubbliche risultano sempre più intrecciate.
Intervista ImPossibile a Bruno Latour (IIP #22)
L’intelligenza artificiale non pensa, governa. Bruno Latour ci ha insegnato che la modernità si è costruita su una finzione utile, quella di separare natura e società, scienza e politica, fatti e valori. Una finzione che ha permesso di presentare molte scelte come “neutrali” o “oggettive”, quando in realtà erano già politiche, ma non dichiarate. Oggi l’AI rende questa finzione più fragile perché mostra in modo chiaro ciò che era già presente, ovvero regole nascoste dentro ai sistemi, criteri che decidono al posto nostro, forme di potere esercitate attraverso dispositivi tecnici, senza responsabilità visibile. In questa intervista impossibile, Latour non risponde alla domanda “che cos’è l’intelligenza artificiale?”, ma a “chi sta davvero agendo quando è una macchina a filtrare le informazioni, assegnare punteggi, classificare persone?” “Chi se ne assume la responsabilità?”
Che cos'è un Autoencoder? L’Intelligenza della Sintesi
Il presente testo si propone di dimostrare la natura intrinsecamente intelligente dell'Autoencoder, analizzandone l'architettura non come un semplice strumento di calcolo, ma come un modello di sintesi cognitiva. Attraverso una scomposizione dettagliata delle sue fasi — dalla distillazione operata dall'Encoder alla rigenerazione dell'archetipo nel Decoder — viene illustrato come questa IA sia in grado di apprendere autonomamente le leggi fisiche sottostanti ai dati. Ci si riferirà, per esemplificarne l'uso, alla spettroscopia. Il punto centrale della dimostrazione risiede nella capacità del modello di mappare la realtà complessa in uno Spazio Latente (bottleneck), dove il rumore viene eliminato per via strutturale e non statistica. Viene introdotto e definito il concetto di Pseudo-Spettro come proiezione del centroide di tale spazio, provando che l'Autoencoder non si limita a "pulire" l'input, ma ne ricostruisce la verità fisica. L'analisi comparativa tra diverse architetture (Dense, Conv1D, Transformer) serve a documentare come la consapevolezza nella scelta del modello permetta di estrarre informazioni cruciali, trasformando l'IA in un validatore scientifico trasparente e interpretabile.
L’illusione della produttività infinita: quando l’AI accelera il vuoto
L’intelligenza artificiale rende il vuoto (di senso) scalabile, riproducibile, industriale. Accelerando la produzione di contenuti formalmente corretti ma spesso privi di direzione, l’AI rischia di saturare l’attenzione e indebolire la capacità di distinguere ciò che conta davvero. Una riflessione sull’illusione della produttività infinita e sul valore, sempre più raro, dell’attrito cognitivo.
Democrazia algoritmica (POV #22)
Jaron Lanier e Cathy O’Neil: Gli algoritmi possono essere compatibili con la democrazia, oppure la loro logica economica e tecnica la sta lentamente svuotando dall’interno? Viviamo immersi nei dati, ma comprendiamo sempre meno i dispositivi che li trasformano in decisioni. Che cosa accade quando scelte politiche, economiche e sociali vengono delegate a modelli matematici? Gli algoritmi promettono efficienza, oggettività, razionalità. Ma chi li progetta? Chi li governa? Chi ne subisce gli effetti? La cosiddetta “democrazia algoritmica” si presenta così come una forma di governo senza elezioni né dibattito pubblico, un potere incorporato nei sistemi che regolano l’accesso al credito, la selezione del lavoro, la circolazione delle informazioni, le pratiche di sicurezza e sorveglianza. Non è una nuova istituzione, ma un’infrastruttura decisionale che agisce sotto la soglia della visibilità politica.
Intervista ImPossibile a Jean-Michel Basquiat (IIP #21)
Segno, Simbolo, Sintassi e l’AI Un dialogo immaginario su come l’esperienza di Jean-Michel Basquiat - la sua grammatica visiva fatta di parole e simboli - possa offrire un’occasione per ripensare criticamente le questioni contemporanee legate all’intelligenza artificiale. Questa intervista impossibile problematizza l’AI come spazio di senso che si confronta con categorie profonde e politiche quali l’identità, il potere, il linguaggio e la marginalità. È un confronto tra due modi di produrre significato, la pittura che nasce dall’esperienza vissuta e dai conflitti sociali, e i sistemi computazionali che apprendono da dati preesistenti. Basquiat emerse dalla scena dei graffiti di New York negli anni ’70, prima sotto il nome di SAMO, poi come uno dei principali esponenti del neoespressionismo internazionale. In meno di un decennio, trasformò la pittura attraverso un repertorio visivo fatto di testo, segni ruvidi, simboli e un uso iperattivo di parole e numeri che non separano immagine da linguaggio ma li intrecciano come vettori di critica sociale e storica. L’opera di Basquiat ruota attorno a contraddizioni e dicotomie - ad esempio potere/oppresso, razza/classe, esperienza interna/esterna - che mettono in discussione la gerarchia dei segni nel discorso culturale e invitano a leggere l’AI non solo come strumento, ma come dispositivo che riconfigura le gerarchie interpretative stesse.
Il potere invisibile dell’AI (POV #21)
Shoshana Zuboff e Evgeny Morozov: L’AI è una nuova fase del capitalismo o un modo per trasformare decisioni politiche in soluzioni tecniche? Quando parliamo di intelligenza artificiale, raramente ci limitiamo a parlare di una tecnologia. Dietro l’AI si muovono questioni che riguardano l’economia, il potere, i modelli di società che stiamo costruendo. L’AI può essere letta come il motore di una nuova fase del capitalismo, fondata sull’estrazione dei dati e sulla previsione dei comportamenti futuri. Ma può anche essere interpretata come il prodotto di una narrazione che trasforma temi politici in problemi tecnici e conflitti sociali in questioni di efficienza. Shoshana Zuboff ed Evgeny Morozov rappresentano due tra le voci più autorevoli di questa critica. La prima analizza l’AI come infrastruttura economica del capitalismo della sorveglianza, un sistema che monetizza l’esperienza umana convertendola in informazione predittiva. Il secondo la interpreta come espressione di un’ideologia tecnologica che promette soluzioni automatiche e, così facendo, sottrae le scelte collettive al dibattito democratico. Il loro confronto non riguarda soltanto il funzionamento degli algoritmi, ma il modo in cui il digitale sta ridefinendo il potere nel XXI secolo.
Come l'Intelligenza Artificiale ci sostituirà dal punto di vista lavorativo.
Alcune considerazioni sul pericolo di sostituzione umano – macchina intelligente e sulle possibili implicazioni partendo dalla nostra Costituzione per finire alla trasformazione del sistema pensionistico in un futuro che é molto più prossimo di quanto sembri nella progressione sostituiva 1-1 / 3-1 /5-1
Chi governa l’economia AI? (POV #20)
Yanis Varoufakivs e Mariana Mazzucato: tecno-feudalesimo vs Stato imprenditore. Quale sarà l’impatto dell’Intelligenza Artificiale sulla nostra democrazia? Chi deve governare l’AI, lo Stato o il mercato? In questo articolo di POV sono a confronto le visioni di due importanti economisti contemporanei che si occupano in particolare degli aspetti di politica, economia e democrazia. Yanis Varoufakis interpreta l’AI come parte di una transizione verso un “tecno-feudalesimo”, dove pochi soggetti digitali esercitano un potere extra-statale, estraendo valore e sottraendolo alla sfera democratica. Mariana Mazzucato, al contrario, individua nello Stato l’unico soggetto in grado di orientare l’innovazione tecnologica attraverso missioni pubbliche, affinché i risultati dell’AI siano condivisi e messi al servizio del bene comune. Due approcci diversi - uno più conflittuale e orientato alla redistribuzione dal basso, l’altro più istituzionale e centrato sulla progettazione collettiva - che ci costringono a ripensare i fondamenti della democrazia economica nell’era algoritmica.
Seduti a un tavolo che si è spostato
Non stiamo uscendo di scena e non siamo stati cacciati dalla stanza, abbiamo continuato a parlare, a decidere, a lavorare, come se fossimo ancora a capotavola.
L'Eclissi dell'Etica: Perché l'"IA Etica" è una Menzogna Matematica
L'industria tecnologica ci promette una 'IA Etica', ma Jorge Charlin svela l'inganno ontologico: stiamo confondendo la Morale (regole programmabili) con l'Etica (la decisione umana di fronte all'ignoto). Attraverso le lenti di Aristotele, Kant e Spinoza, questo manifesto denuncia la riduzione dell'etica a pura 'burocrazia automatizzata' e rivendica la responsabilità della scelta come un privilegio esclusivo, e non delegabile, dell'essere umano.
Intervista ImPossibile a Daniel Dennet (IIP #19)
Perché le macchine non avranno mai un io (per ora) Daniel C. Dennett (1942–2024) è stato un filosofo della mente e scienziato cognitivo statunitense, noto per le sue teorie innovative su coscienza e intelligenza. Professore alla Tufts University e allievo di Gilbert Ryle, Dennett ha contribuito a traghettare la filosofia anglo-americana verso una maggiore collaborazione con le scienze cognitive ed evolutive. Dennett ha sfidato idee tradizionali come i qualia e il dualismo cartesiano, sostenendo che la mente e la coscienza siano fenomeni naturali emergenti da processi fisici ed evolutivi. Celebre anche per il concetto di “meme” applicato alla trasmissione culturale, Dennett ha proposto una visione darwiniana della cultura e persino del libero arbitrio. Scettico verso l’idea di una AI forte pienamente cosciente, ha spesso sostenuto che le attuali macchine “pensanti” simulino l’intelligenza senza veramente comprendere, una forma di “competenza senza comprensione”, come l’ha definita. In questa “Intervista Impossibile”, con la sua arguzia provocatoria, Dennett commenta gli ultimi sviluppi dell’intelligenza artificiale, i rischi percepiti, e le connessioni tra le menti artificiali e la coscienza umana.
L'AI che si mangia da sola
Ogni intelligenza vive di ciò che osserva. Se l’AI smette di guardare il mondo e comincia a nutrirsi delle proprie simulazioni, ciò che perde non è precisione, ma realtà.