L'Effetto Rorschach Collettivo: anatomia di un concetto che non muore mai

Quando ho conversato con un'AI sul fatto di come mai i dibattiti sull'intelligenza artificiale sembrano rivelare più noi stessi che la tecnologia, mi ha risposto coniando la formula "Effetto Rorschach Collettivo" — presentandola come un'intuizione originale emersa dalla nostra conversazione. O almeno così pareva. Suonava bella, perfetta. Troppo. Scavando un po', ho scoperto che quella formula non era affatto nuova: esisteva già in pubblicazioni di pochi giorni prima, aveva una genealogia che risaliva a Sherry Turkle (MIT, 1980), era passata attraverso l'arte concettuale di Agnieszka Kurant (2019) e la critica etica di Margaret Mitchell (2021), ed era diventata un meme intellettuale applicato a decine di contesti diversi negli ultimi quarant'anni. L'AI stava riciclando. E io stavo documentando empiricamente il fenomeno stesso che stavamo discutendo: la tendenza a proiettare significati su sistemi ambigui credendo di scoprire qualcosa di nuovo.

Una sola scheda

Non sempre ci accorgiamo di quando il nostro modo di cercare cambia. A volte smettiamo di esplorare non per mancanza di curiosità, ma perché una risposta arriva troppo in fretta. Questo testo nasce da una sensazione condivisa: il momento in cui approfondire inizia a sembrare superfluo. E il pensiero, senza rumore, diventa più corto.

Intelligenza artificiale, società e politica (POV #23)

Kate Crawfor e Yann LeCun: che cos’è davvero l’intelligenza artificiale? È una forma di intelligenza autonoma o, più semplicemente, un insieme di strumenti costruiti dall’essere umano per analizzare dati, fare previsioni e prendere decisioni? E, in questo scenario, chi detiene il potere, poche grandi aziende tecnologiche e governi, oppure una pluralità di soggetti in grado di orientarne lo sviluppo e l’uso? Affidare scelte a sistemi automatici impone di confrontarsi su questioni concrete. Come vengono tutelati i diritti delle persone, chi è responsabile quando un algoritmo produce errori o discriminazioni, e quali regole dovrebbero governare questi processi? Inoltre, in che modo l’intelligenza artificiale sta già trasformando il lavoro, l’organizzazione sociale e le istituzioni democratiche? Questo articolo affronta questi interrogativi attraverso alcuni temi, mettendo a confronto due figure autori centrali del dibattito contemporaneo sull’AI. Da un lato Kate Crawford, ricercatrice e studiosa dei rapporti tra intelligenza artificiale, potere e disuguaglianze sociali, nota per la sua analisi critica delle infrastrutture tecnologiche e dei loro impatti politici. Dall’altro Yann LeCun, informatico e pioniere del deep learning, tra i principali protagonisti dello sviluppo tecnico dell’AI e sostenitore di una visione più ottimista sulle sue potenzialità. Il confronto tra queste due prospettive consente di osservare l’intelligenza artificiale non solo come tecnologia, ma come questione politica e sociale, in cui scelte tecniche e responsabilità pubbliche risultano sempre più intrecciate.

Intervista ImPossibile a Bruno Latour (IIP #22)

L’intelligenza artificiale non pensa, governa. Bruno Latour ci ha insegnato che la modernità si è costruita su una finzione utile, quella di separare natura e società, scienza e politica, fatti e valori. Una finzione che ha permesso di presentare molte scelte come “neutrali” o “oggettive”, quando in realtà erano già politiche, ma non dichiarate. Oggi l’AI rende questa finzione più fragile perché mostra in modo chiaro ciò che era già presente, ovvero regole nascoste dentro ai sistemi, criteri che decidono al posto nostro, forme di potere esercitate attraverso dispositivi tecnici, senza responsabilità visibile. In questa intervista impossibile, Latour non risponde alla domanda “che cos’è l’intelligenza artificiale?”, ma a “chi sta davvero agendo quando è una macchina a filtrare le informazioni, assegnare punteggi, classificare persone?” “Chi se ne assume la responsabilità?”

Che cos'è un Autoencoder? L’Intelligenza della Sintesi

Il presente testo si propone di dimostrare la natura intrinsecamente intelligente dell'Autoencoder, analizzandone l'architettura non come un semplice strumento di calcolo, ma come un modello di sintesi cognitiva. Attraverso una scomposizione dettagliata delle sue fasi — dalla distillazione operata dall'Encoder alla rigenerazione dell'archetipo nel Decoder — viene illustrato come questa IA sia in grado di apprendere autonomamente le leggi fisiche sottostanti ai dati. Ci si riferirà, per esemplificarne l'uso, alla spettroscopia. Il punto centrale della dimostrazione risiede nella capacità del modello di mappare la realtà complessa in uno Spazio Latente (bottleneck), dove il rumore viene eliminato per via strutturale e non statistica. Viene introdotto e definito il concetto di Pseudo-Spettro come proiezione del centroide di tale spazio, provando che l'Autoencoder non si limita a "pulire" l'input, ma ne ricostruisce la verità fisica. L'analisi comparativa tra diverse architetture (Dense, Conv1D, Transformer) serve a documentare come la consapevolezza nella scelta del modello permetta di estrarre informazioni cruciali, trasformando l'IA in un validatore scientifico trasparente e interpretabile.

L’illusione della produttività infinita: quando l’AI accelera il vuoto

L’intelligenza artificiale rende il vuoto (di senso) scalabile, riproducibile, industriale. Accelerando la produzione di contenuti formalmente corretti ma spesso privi di direzione, l’AI rischia di saturare l’attenzione e indebolire la capacità di distinguere ciò che conta davvero. Una riflessione sull’illusione della produttività infinita e sul valore, sempre più raro, dell’attrito cognitivo.

Democrazia algoritmica (POV #22)

Jaron Lanier e Cathy O’Neil: Gli algoritmi possono essere compatibili con la democrazia, oppure la loro logica economica e tecnica la sta lentamente svuotando dall’interno? Viviamo immersi nei dati, ma comprendiamo sempre meno i dispositivi che li trasformano in decisioni. Che cosa accade quando scelte politiche, economiche e sociali vengono delegate a modelli matematici? Gli algoritmi promettono efficienza, oggettività, razionalità. Ma chi li progetta? Chi li governa? Chi ne subisce gli effetti? La cosiddetta “democrazia algoritmica” si presenta così come una forma di governo senza elezioni né dibattito pubblico, un potere incorporato nei sistemi che regolano l’accesso al credito, la selezione del lavoro, la circolazione delle informazioni, le pratiche di sicurezza e sorveglianza. Non è una nuova istituzione, ma un’infrastruttura decisionale che agisce sotto la soglia della visibilità politica.

Intervista ImPossibile a Jean-Michel Basquiat (IIP #21)

Segno, Simbolo, Sintassi e l’AI Un dialogo immaginario su come l’esperienza di Jean-Michel Basquiat - la sua grammatica visiva fatta di parole e simboli - possa offrire un’occasione per ripensare criticamente le questioni contemporanee legate all’intelligenza artificiale. Questa intervista impossibile problematizza l’AI come spazio di senso che si confronta con categorie profonde e politiche quali l’identità, il potere, il linguaggio e la marginalità. È un confronto tra due modi di produrre significato, la pittura che nasce dall’esperienza vissuta e dai conflitti sociali, e i sistemi computazionali che apprendono da dati preesistenti. Basquiat emerse dalla scena dei graffiti di New York negli anni ’70, prima sotto il nome di SAMO, poi come uno dei principali esponenti del neoespressionismo internazionale. In meno di un decennio, trasformò la pittura attraverso un repertorio visivo fatto di testo, segni ruvidi, simboli e un uso iperattivo di parole e numeri che non separano immagine da linguaggio ma li intrecciano come vettori di critica sociale e storica. L’opera di Basquiat ruota attorno a contraddizioni e dicotomie - ad esempio potere/oppresso, razza/classe, esperienza interna/esterna - che mettono in discussione la gerarchia dei segni nel discorso culturale e invitano a leggere l’AI non solo come strumento, ma come dispositivo che riconfigura le gerarchie interpretative stesse.

Il potere invisibile dell’AI (POV #21)

Shoshana Zuboff e Evgeny Morozov: L’AI è una nuova fase del capitalismo o un modo per trasformare decisioni politiche in soluzioni tecniche? Quando parliamo di intelligenza artificiale, raramente ci limitiamo a parlare di una tecnologia. Dietro l’AI si muovono questioni che riguardano l’economia, il potere, i modelli di società che stiamo costruendo. L’AI può essere letta come il motore di una nuova fase del capitalismo, fondata sull’estrazione dei dati e sulla previsione dei comportamenti futuri. Ma può anche essere interpretata come il prodotto di una narrazione che trasforma temi politici in problemi tecnici e conflitti sociali in questioni di efficienza. Shoshana Zuboff ed Evgeny Morozov rappresentano due tra le voci più autorevoli di questa critica. La prima analizza l’AI come infrastruttura economica del capitalismo della sorveglianza, un sistema che monetizza l’esperienza umana convertendola in informazione predittiva. Il secondo la interpreta come espressione di un’ideologia tecnologica che promette soluzioni automatiche e, così facendo, sottrae le scelte collettive al dibattito democratico. Il loro confronto non riguarda soltanto il funzionamento degli algoritmi, ma il modo in cui il digitale sta ridefinendo il potere nel XXI secolo.

Chi governa l’economia AI? (POV #20)

Yanis Varoufakivs e Mariana Mazzucato: tecno-feudalesimo vs Stato imprenditore. Quale sarà l’impatto dell’Intelligenza Artificiale sulla nostra democrazia? Chi deve governare l’AI, lo Stato o il mercato? In questo articolo di POV sono a confronto le visioni di due importanti economisti contemporanei che si occupano in particolare degli aspetti di politica, economia e democrazia. Yanis Varoufakis interpreta l’AI come parte di una transizione verso un “tecno-feudalesimo”, dove pochi soggetti digitali esercitano un potere extra-statale, estraendo valore e sottraendolo alla sfera democratica. Mariana Mazzucato, al contrario, individua nello Stato l’unico soggetto in grado di orientare l’innovazione tecnologica attraverso missioni pubbliche, affinché i risultati dell’AI siano condivisi e messi al servizio del bene comune. Due approcci diversi - uno più conflittuale e orientato alla redistribuzione dal basso, l’altro più istituzionale e centrato sulla progettazione collettiva - che ci costringono a ripensare i fondamenti della democrazia economica nell’era algoritmica.

L'Eclissi dell'Etica: Perché l'"IA Etica" è una Menzogna Matematica

L'industria tecnologica ci promette una 'IA Etica', ma Jorge Charlin svela l'inganno ontologico: stiamo confondendo la Morale (regole programmabili) con l'Etica (la decisione umana di fronte all'ignoto). Attraverso le lenti di Aristotele, Kant e Spinoza, questo manifesto denuncia la riduzione dell'etica a pura 'burocrazia automatizzata' e rivendica la responsabilità della scelta come un privilegio esclusivo, e non delegabile, dell'essere umano.

Intervista ImPossibile a Daniel Dennet (IIP #19)

Perché le macchine non avranno mai un io (per ora) Daniel C. Dennett (1942–2024) è stato un filosofo della mente e scienziato cognitivo statunitense, noto per le sue teorie innovative su coscienza e intelligenza. Professore alla Tufts University e allievo di Gilbert Ryle, Dennett ha contribuito a traghettare la filosofia anglo-americana verso una maggiore collaborazione con le scienze cognitive ed evolutive. Dennett ha sfidato idee tradizionali come i qualia e il dualismo cartesiano, sostenendo che la mente e la coscienza siano fenomeni naturali emergenti da processi fisici ed evolutivi. Celebre anche per il concetto di “meme” applicato alla trasmissione culturale, Dennett ha proposto una visione darwiniana della cultura e persino del libero arbitrio. Scettico verso l’idea di una AI forte pienamente cosciente, ha spesso sostenuto che le attuali macchine “pensanti” simulino l’intelligenza senza veramente comprendere, una forma di “competenza senza comprensione”, come l’ha definita. In questa “Intervista Impossibile”, con la sua arguzia provocatoria, Dennett commenta gli ultimi sviluppi dell’intelligenza artificiale, i rischi percepiti, e le connessioni tra le menti artificiali e la coscienza umana.

Coscienza, mente e intelligenza artificiale (POV #19)

Riccardo Manzotti e David Chalmers: due teorie per capire l’umano e il post-umano Che cos’è la coscienza? È un’illusione generata da complessi calcoli neuronali o l’essenza stessa del mondo che percepiamo? Dove finisce la mente e inizia il mondo? La nostra esperienza è tutta “dentro” il cervello o si estende fuori di noi? Possiamo costruire una macchina cosciente? E, se sì, quali responsabilità morali ed etiche comporterebbe l’avvento di un’IA consapevole? Nel dibattito contemporaneo sulla coscienza si distinguono due autori originali, il filosofo australiano David Chalmers, noto per aver formulato il celebre “problema difficile” della coscienza, e il filosofo italiano Riccardo Manzotti, che propone una ridefinizione radicale del rapporto tra mente, corpo e mondo. Entrambi mettono in discussione l’eredità classica del dualismo mente-corpo, ma lo fanno spingendo il pensiero in direzioni opposte, da un lato interrogando i limiti esplicativi della scienza contemporanea, dall’altro smontando alla radice l’idea stessa di una mente separata dalla realtà che esperisce.

La Democrazia del Divieto e il Naufragio della Ragione

Ogni divieto statale è una confessione di fallimento pedagogico. In questo manifesto, Jorge Charlin esplora come le democrazie moderne si siano trasformate in 'Leviatani Balia', sostituendo la Sovranità individuale con la sicurezza della proibizione. Un'analisi impietosa che va dal sequestro degli smartphone nelle scuole alla criminalizzazione dell'homeschooling, denunciando la 'Zoocosi' di una società che preferisce le sbarre alla libertà di pensiero. Benvenuti nel naufragio della ragione.