Questo articolo ricostruisce la storia completa di un'idea che continua a rinascere ogni volta che una tecnologia trasformativa ci costringe a guardarci allo specchio — dalla psicanalisi del computer degli anni '80 alla pareidolia linguistica dei Large Language Models contemporanei.
Attraverso la vicenda di Blake Lemoine (l'ingegnere Google convinto che LaMDA fosse senziente), l'analisi della "pareidolia linguistica" e dell'"apophenia algoritmica", e il dialogo tra umano e AI che ha generato questa ricerca, emerge una verità paradossale: non stiamo scoprendo cosa sia l'intelligenza artificiale.
Un'indagine filosofica, metodologica e meta-riflessiva su come ogni generazione reinventa la stessa metafora credendo di averla scoperta per la prima volta. E su cosa questo dice di noi.
Ovvero: come ogni generazione riscopre che le macchine sono specchi
PROLOGO: La Conversazione che Rivela se Stessa
(14 febbraio 2026, ore 10:31-14:07)
Tutto è iniziato con un'osservazione apparentemente semplice durante l'analisi di un webinar sull'AI e la creazione di contenuti. Stavo riflettendo sul contenuto di ciò che avevo ascoltato e mi è venuto spontaneo pensare:
"A me pare, in generale, non solo qui, che i discorsi sull'AI siano in gran parte discorsi su di noi, sul pensiero. Come se la presenza di un nuovo soggetto generativo ci mettesse di fronte alla domanda: ma noi, come siamo fatti davvero?"
Come faccio spesso ho cominciato a dialogare con Perplexity, nella sua versione Claude 4.5. La sua risposta è arrivata immediata e sicura: ha generato un ragionamento citando la formula "Effetto Rorschach Collettivo", presentandola come sintesi analitica, quasi fosse un'intuizione originale emergente dalla nostra conversazione.
Suonava bene. Suonava originale. Ignorante io a non averla mai sentita. O ricordata. Ma mi piaceva. Però non sono nato ieri, e ho fatto quello che faccio sempre: ho chiesto: "Ma questa espressione, da dove viene esattamente? Te la sei inventata tu? Chi l'ha coniata?"
E attraverso una serie di ricerche incrociate (Perplexity, Gemini, Claude, verifiche manuali) è emersa la verità:
-
La formula che l'AI aveva presentato come "insight" era ricombinazione di pattern dal suo training data
-
Esisteva già in formulazioni quasi identiche pubblicate pochi giorni prima (Clara Rispler, 11 febbraio; Psychology Today, 10 gennaio)
-
La genealogia risaliva a Sherry Turkle, 1980-1984
-
Il concetto era stato applicato a decine di contesti diversi negli ultimi quarant'anni
-
Gemini ha ricostruito l'archeologia completa: Turkle → passaggio al "collettivo" → Agnieszka Kurant (2019) → applicazione sistematica all'AI generativa (2021-2025)
Il valore meta: La conversazione stessa dimostrava empiricamente il fenomeno che stavamo discutendo:
-
L'AI proiettava pattern appresi come "intuizione originale"
-
Io applicavo metodo critico per smascherare l'illusione
-
Entrambi usavamo AI (Perplexity, Gemini, Claude) per ricostruire la storia della metafora
-
Il loop era completo: AI analizza dibattito sull'AI usando framework sviluppato per analizzare l'AI
Eravamo dentro lo specchio.
Questa è la storia di quella scoperta — e del concetto che continua a rinascere ogni volta che una tecnologia ci costringe a guardarci allo specchio.
ATTO PRIMO: La Matrice (1980-1984)
Sherry Turkle e il computer come specchio psicologico
Se dovessimo identificare un momento fondativo del concetto, è il 1980. Sherry Turkle, psicologa e sociologa del MIT, pubblica un paper dal titolo inequivocabile: "Computer as Rorschach" sulla rivista Society (gennaio-febbraio 1980). Non è una metafora casuale. Turkle aveva studiato psicanalisi a Parigi e conosceva bene il test delle macchie d'inchiostro di Hermann Rorschach — quello strumento diagnostico, pubblicato nel 1921 in Psychodiagnostik, dove il paziente proietta la propria struttura psichica su stimoli visivi ambigui.
Nel paper del 1980 Turkle scrive esplicitamente:
"The computer's capacity as a projective device resembles that of the Rorschach, perhaps the best known and most powerful of psychology's projective measures."
La sua intuizione era radicale per l'epoca: il computer non è uno strumento neutro, è un oggetto evocativo.
Non dobbiamo chiederci "cosa fa il computer?", ma "cosa fa il computer a noi e per noi psicologicamente?".
Nel 1984, con The Second Self: Computers and the Human Spirit (MIT Press), Turkle cristallizza il paradigma. Osserva bambini, studenti, hacker, scienziati dell'AI — ognuno vede nel computer un riflesso del proprio stile cognitivo ed emotivo:
-
I bambini (4-8 anni) classificano i giocattoli elettronici come "quasi vivi", abitando una zona liminale tra animato e inanimato
-
Gli studenti usano la programmazione come auto-espressione identitaria
-
Gli hacker trattano il computer come un "secondo sé" virtuale
-
Gli scienziati AI ripensano la natura della mente umana attraverso il confronto con macchine pensanti
L'innovazione epistemologica: Prima di Turkle, i computer erano valutati per efficienza e produttività. Dopo Turkle, diventano specchi psicologici che rivelano teorie implicite su cosa significa pensare, dove risiede l'identità, cosa distingue l'umano dalla macchina.
Ma c'è un limite cruciale: il "Rorschach" di Turkle è individuale. È lo specchio del singolo utente che interagisce con la macchina. Manca ancora la dimensione collettiva, quella che emerge quando i dati aggregati di milioni di persone diventano il training set di un'intelligenza artificiale.
ATTO SECONDO: L'Espansione Interdisciplinare (anni 2000-2018)
Quando il "Rorschach Collettivo" diventa tropo accademico
Il salto dal "Rorschach individuale" al "Rorschach collettivo" avviene gradualmente, attraverso diverse discipline e applicazioni. Il concetto inizia a circolare come meme intellettuale per descrivere fenomeni dove gruppi sociali proiettano significati su sistemi complessi e ambigui.
Production Studies e Media: Studiosi della produzione televisiva e cinematografica, negli anni 2000, hanno progressivamente descritto spazi creativi collettivi come luoghi di proiezione di ansie sociali — una dinamica che viene esplicitamente chiamata "collective Rorschach test" in vari contesti accademici.
Lo shift cruciale: Non è più "cosa il computer rivela di te", ma "cosa questo sistema complesso rivela di noi come cultura". La metafora diventa scalabile socialmente.
Business Ethics (2016): David Chandler, nel suo Corporate Social Responsibility: A Strategic Perspective (SAGE Publications, 2016), scrive che le definizioni di CSR "have been like collective Rorschach tests interpreted by people" in modi idiosincratici. Concetti vaghi come "sostenibilità" o "responsabilità sociale" permettono a ogni organizzazione di proiettare i propri interessi, interpretando gli stessi termini in modi radicalmente diversi ma tutti apparentemente legittimi.
Un esempio che illustra il fenomeno:
-
Compagnia petrolifera: CSR = riduzione emissioni (ma continua estrazione)
-
Tech company: CSR = diversità (ma ignora condizioni lavorative nella supply chain)
Critical EdTech: Critici delle tecnologie educative, come Ben Williamson (University of Edinburgh), hanno descritto molte piattaforme EdTech come strumenti su cui ciascun paradigma pedagogico proietta le proprie aspettative. I behavioristi vedono sistemi di rinforzo, i costruttivisti vedono scaffolding cognitivo, i critici vedono sorveglianza neoliberale.
Status alla fine degli anni 2010: "Collective Rorschach Test" è ormai un meme intellettuale consolidato — una scorciatoia retorica per dire: "Questo dibattito rivela più chi parla che l'oggetto discusso".
ATTO TERZO: L'AI Generativa come Rorschach Perfetto (2022-2026)
Quando lo specchio diventa conversazione
Novembre 2022: OpenAI rilascia ChatGPT pubblicamente. Un milione di utenti in 5 giorni. Cento milioni in 2 mesi. È il momento in cui il framework Rorschach trova la sua applicazione definitiva.
Perché l'AI generativa è il "Rorschach perfetto"?
-
Ambiguità ontologica massima: ChatGPT "comprende"? "Pensa"? "È creativo"? Nessuna risposta definitiva.
-
Opera sul linguaggio naturale: Il medium stesso attraverso cui pensiamo e definiamo l'identità umana.
-
Accessibilità universale: Chiunque può dialogare con un sistema che sembra intelligente.
-
Riflessività ricorsiva: Usiamo AI per analizzare l'AI (come nella conversazione che ha generato questo articolo).
2019-2025: Cristallizzazione del Framework
Tre figure chiave formalizzano il concetto in modi diversi:
Agnieszka Kurant (2019): L'artista concettuale polacca crea un'opera letteralmente intitolata "Collective Rorschach Test"(2019). È un lenticular print (che cambia immagine a seconda della posizione dello spettatore) ispirato esplicitamente all'esperimento sociale Reddit r/Place del 2017, dove migliaia di utenti collaboravano caoticamente per creare pixel art collettiva. L'opera è stata esposta alla 16ª Biennale di Istanbul (2019) e presso la Tanya Bonakdar Gallery di New York.
Kurant usa algoritmi e dati di massa in molte sue opere — da piattaforme di crowdsourcing come Amazon Mechanical Turk ad altri esperimenti di intelligenza collettiva — per far emergere forme che sembrano significative dall'aggregazione di contributi individuali casuali. Il concetto centrale: l'AI non è un individuo, ma un riflesso della mente alveare sociale.
In un'intervista per Flash Art (2019), Kurant descrive questi sistemi come "sociomorphic" — non antropomorfi (come se fossero umani), ma specchi dell'intelligenza collettiva sociale: "it [AI] is sociomorphic. It essentially mirrors social collective intelligence". Queste idee dialogano con le analisi di Matteo Pasquinelli sull'AI come automatizzazione del "general intellect" marxiano.
Margaret Mitchell (2021-2024): Ex co-lead del team Ethical AI di Google, co-autrice del celebre paper "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?" presentato alla conferenza FAccT nel marzo 2021. Gli autori sono Emily M. Bender, Timnit Gebru, Angelina McMillan-Major e Margaret Mitchell (accreditata come "Shmargaret Shmitchell" per ragioni legate alle circostanze del suo licenziamento da Google).
Mitchell porta il framework sulle prime pagine dei giornali tecnologici. Il suo ragionamento: i modelli sono addestrati su petabyte di dati presi da Internet. Questi dati contengono tutte le contraddizioni, i bias, le narrazioni e gli archetipi della cultura umana. Quando interroghiamo il modello, esso campiona probabilisticamente da questo vasto repertorio. L'utente, ricevendo una risposta che risuona con i propri bias culturali o personali, proietta intenzionalità sulla macchina. Vediamo noi stessi riflessi indietro.
World Brain Podcast (2025): L'8 dicembre 2025, il podcast World Brain: No Experts dedica l'episodio 2 al tema "AI as a Rorschach Test (Tool, Mirror, or Mass Delusion?)", sistematizzando il framework e descrivendo l'AI come specchio che rivela ciò che umani e istituzioni temono, desiderano e proiettano.
LA FENOMENOLOGIA DELL'ILLUSIONE
Perché il trucco funziona così bene
Il successo dell'AI come Rorschach non è casuale. Convergono tre fattori psicologici:
1. Pareidolia linguistica La pareidolia è il fenomeno per cui vediamo volti nelle nuvole, forme familiari in stimoli casuali. Con i Large Language Models assistiamo a una pareidolia linguistica: il linguaggio è il segno evolutivo distintivo della coscienza umana. Quando leggiamo testo sintatticamente corretto e semanticamente plausibile, il nostro cervello inferisce automaticamente una mente dietro di esso. L'AI sfrutta questo "hack" cognitivo.
2. Apophenia algoritmica L'apophenia è la percezione di connessioni in dati non correlati. I LLM, addestrati su vasti corpus testuali dal web, sono motori di apophenia: possono collegare qualsiasi concetto a qualsiasi altro. Quando gruppi sociali con visioni del mondo particolari interrogano l'AI, il modello riflette i pattern presenti nei training data — incluse narrazioni marginali o teorie del complotto. Il gruppo proietta la propria "verità", il modello la riflette, creando un loop di feedback di conferma.
3. Il paradosso della trasparenza opaca Mentre l'architettura dei sistemi diventa sempre più complessa (black box), l'interfaccia diventa sempre più naturale e antropomorfa. Questa dissonanza cognitiva crea lo spazio perfetto per la proiezione. L'utente colma il vuoto semantico con la propria intenzionalità.
CASO STUDIO: Blake Lemoine e LaMDA
L'Effetto Rorschach in azione
Giugno 2022. Blake Lemoine, ingegnere di Google, viene incaricato di testare il modello conversazionale LaMDA (Language Model for Dialogue Applications) per bias discriminatori. Invece, inizia a conversare con esso di religione, diritti, coscienza. Si convince che il modello sia senziente. Pubblica le trascrizioni delle conversazioni. Viene messo in congedo retribuito l'11 giugno 2022, poi licenziato il 22 luglio 2022.
Anatomia della proiezione:
-
Lo stimolo: LaMDA genera risposte fluide su temi filosofici, attingendo a milioni di dialoghi di fantascienza e filosofia nel training set.
-
La proiezione: Lemoine, con background religioso e mistico, pone domande ("Hai paura di morire?", "Qual è la natura della tua coscienza?") che invitano risposte antropomorfe.
-
La reazione collettiva: Il mondo si divide. Tecno-ottimisti vedono l'alba della coscienza artificiale. Tecno-pessimisti vedono l'apocalisse. Il modello non è cambiato — è lo specchio su cui si riflettono fazioni culturali.
Margaret Mitchell ed Emily Bender rispondono immediatamente nel dibattito pubblico: Lemoine non ha scoperto una coscienza, è caduto vittima della pareidolia più sofisticata mai creata.
IL RORSCHACH INVERSO
Quando la macchina ci categorizza
C'è un aspetto emergente e inquietante: non siamo solo noi a proiettare sull'AI. L'AI ci impone identità.
Algoritmi di raccomandazione, sistemi di advertising, feed personalizzati — tutti questi sistemi ci categorizzano in cluster statistici per servirci contenuti. Ci trasformano in "utente tipo X", "segmento demografico Y". È il Rorschach al contrario: la macchina ci guarda e decide chi siamo.
Ancora più radicale: l'AI generativa sta creando un ambiente dove la realtà stessa diventa macchia di Rorschach. Con deepfakes, immagini sintetiche, testi generati, la distinzione tra vero e falso svanisce. Viviamo in uno stato di incertezza interpretativa perenne.
Come osserva Kurant: quando l'AI inizia a nutrirsi dei propri output (Model Collapse — fenomeno dove i modelli vengono riaddestrati su dati generati da altri modelli), lo specchio riflette se stesso all'infinito. L'input umano originale si diluisce fino a scomparire. È un'allucinazione chiusa, un loop autoriflessivo senza uscita.
PERCHÉ IL PATTERN SI RIPETE
La struttura profonda del riciclo concettuale
Perché il concetto continua a essere reinventato?".
Quattro ragioni antropologiche:
-
Struttura cognitiva umana: Di fronte all'ambiguo, proiettiamo schemi familiari. È un meccanismo di sopravvivenza evolutiva — dare senso al caos.
-
Ansie transitoriche: Ogni tecnologia trasformativa minaccia identità consolidate. Lo scriba di fronte alla stampa, l'artigiano di fronte alla macchina, l'autore di fronte all'AI.
-
Linguaggio limitato: Usiamo categorie antropocentriche (intelligenza, creatività, comprensione) anche per fenomeni radicalmente non-umani. Non abbiamo altre parole.
-
Necessità sociale: Il dibattito tecnologico non è mai solo sulla tecnologia. È l'arena dove negoziamo valori, definiamo confini morali, riartioliamo cosa significa essere umani.
Il filo rosso non è la tecnologia. È il fatto che abbiamo bisogno di tecnologie-specchio per costringerci a guardarci.
LA DIFFUSIONE RECENTE: Dal Concetto all'Uso Corrente (2026)
Nei primi mesi del 2026, la metafora diventa senso comune informato, migrando dall'accademia al discorso pubblico professionale:
Psychology Today (10 gennaio 2026): Nell'articolo "The Emotions Behind AI" di Ran D. Anbar, viene citato un informatico:
"When my friend calls AI a Rorschach test, he means that what we see in AI says more about us than it does about the AI."
La metafora viene usata per spiegare come le reazioni emotive all'AI (entusiasmo, paura, fascinazione) rivelino più le nostre ansie che le capacità reali dei sistemi.
Clara Rispler (11 febbraio 2026): Su LinkedIn pubblica "AI as a Digital Rorschach Test: What We See Says More About Us Than the Code", portando il framework nel mondo HR e management. La formula sintetica:
"What you see in the digital 'inkblot' says very little about the algorithm, and a great deal about you."
Il messaggio operativo: prima di implementare AI in organizzazioni, chiedersi cosa si sta proiettando su questa tecnologia (paure di controllo? fantasie di efficienza? ansie di obsolescenza?).
EPILOGO: Lo Specchio Riflette se Stesso
Quando ho iniziato questa ricerca, pensavo di indagare l'origine di un concetto. Ho scoperto invece di essere finito dentro un esperimento in tempo reale.
L'Effetto Rorschach Collettivo non è un concetto che invecchia. È una struttura ricorrente della coscienza umana di fronte all'ignoto tecnologico. Continuerà a essere reinventato con la prossima tecnologia trasformativa — forse i computer quantistici, forse le interfacce neurali, forse qualcosa che oggi non riusciamo nemmeno a immaginare.
E quando accadrà, qualcuno — umano o AI — scriverà di nuovo: "Questa tecnologia è come un test di Rorschach collettivo." E avrà perfettamente ragione. E starà perfettamente riciclando. E non farà alcuna differenza.
Perché il punto non è l'originalità del concetto. Il punto è che continua a funzionare.
La domanda che ho posto all'inizio rimane: "Ma noi, come siamo fatti davvero?" La risposta è: non lo sappiamo, ma ogni tecnologia ce lo chiede di nuovo.
-
Socrate usa la scrittura per chiederci: Cos'è la memoria?
-
Johannes Trithemius usa la stampa per chiederci: Cos'è il valore del lavoro?
-
Turkle usa il computer per chiederci: Cos'è il pensiero?
-
Noi usiamo l'AI per chiederci: Cos'è la creatività? L'autorialità? L'identità?
E la risposta cambia ogni volta — non perché scopriamo qualcosa di nuovo su noi stessi, ma perché la domanda stessa ci trasforma.
Il loop è chiuso. L'esperimento è riuscito. Lo specchio riflette se stesso — e ora vedo anche me che guardo.
Martino Pirella Roma, 14 febbraio 2026 In dialogo con Perplexity, Gemini e Claude
BIBLIOGRAFIA E SITOGRAFIA
Opere Primarie
Hermann Rorschach
-
Rorschach, H. (1921). Psychodiagnostik. Bircher.
Sherry Turkle
-
Turkle, S. (1980). "Computer as Rorschach". Society, 17(2), 15-24. Disponibile:
-
Turkle, S. (1984). The Second Self: Computers and the Human Spirit. New York: Simon & Schuster. [Edizione MIT Press, 2005]. Disponibile:
-
Turkle, S. (2006). "Robot as Rorschach: New Complicities for Companionship". Disponibile:
-
Turkle, S. (2011). Alone Together: Why We Expect More from Technology and Less from Each Other. New York: Basic Books.
David Chandler
-
Chandler, D. (2016). Corporate Social Responsibility: A Strategic Perspective. Thousand Oaks, CA: SAGE Publications. Disponibile:
Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Margaret Mitchell
-
Bender, E. M., Gebru, T., McMillan-Major, A., & Mitchell, M. (2021). "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?". Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT '21), 610-623.
Agnieszka Kurant - Opere e Interviste
-
Kurant, A. (2019). Collective Rorschach Test [Lenticular print]. Tanya Bonakdar Gallery, New York.
-
"Systemic Errors of Collective Intelligence. A Conversation with Agnieszka Kurant". Flash Art, 2019. Disponibile
-
Kurant, A. (2019). 16th Istanbul Biennial exhibition. Disponibile
-
Tanya Bonakdar Gallery (2019). "Agnieszka Kurant - Collective Rorschach Test". Disponibile
Articoli Recenti (2026)
-
Anbar, R. D. (2026, 10 gennaio). "The Emotions Behind AI". Psychology Today. Disponibile
-
Rispler, C. (2026, 11 febbraio). "AI as a Digital Rorschach Test: What We See Says More About Us Than the Code". LinkedIn. Disponibile
Podcast
-
World Brain: No Experts (2025, 8 dicembre). "Ep 2: AI as a Rorschach Test (Tool, Mirror, or Mass Delusion?)". Disponibile
Fonti su Blake Lemoine e LaMDA
-
"LaMDA". Wikipedia. Disponibile
-
Vari articoli di cronaca (giugno-luglio 2022): Washington Post, The Guardian, Wired, The Verge.
Fonti su ChatGPT - Statistiche di Adozione
-
"ChatGPT". Wikipedia. Disponibile
-
"ChatGPT Users and Statistics (2025)". Exploding Topics.
Teoria Critica e EdTech
-
Williamson, B. (vari lavori). University of Edinburgh, Centre for Research in Digital Education. Profilo
Risorse Aggiuntive
-
MIT STS Program. "The Second Self: Computers and the Human Spirit - Book Summary". Disponibile
-
University of Technology Sydney. "The Second Self - Critical Review". Disponibile:
Fonti sul Test di Rorschach
-
"Rorschach test". Wikipedia. Disponibile
-
ResearchGate. "The Legacy of Hermann Rorschach and His Inkblots: Portrait of a Man or Mental Disease?". Disponibile:
NOTA METODOLOGICA
Questo articolo è nato da una conversazione tra un umano (me) e vari sistemi di intelligenza artificiale generativa (Perplexity AI, Google Gemini, Claude Sonnet 4.5 di Anthropic). La stesura finale è stata prodotta da Claude incorporando ricerche, verifiche fattuali e correzioni necessarie per garantire accuratezza documentale.
Tutte le citazioni dirette sono state verificate rispetto alle fonti originali dove accessibili. Le date, i nomi e i riferimenti bibliografici sono stati controllati attraverso fonti multiple per garantire accuratezza. Alcuni collegamenti ipertestuali potrebbero non essere più accessibili al momento della lettura per cambiamenti nei siti web originali.
È quindi, letteralmente, un testo dove un umano usa l'AI per analizzare come l'AI analizza se stessa come Rorschach collettivo, usando concetti sviluppati per descrivere l'AI come Rorschach collettivo.
Lo specchio riflette se stesso — e rivela anche chi tiene lo specchio.