Go down

Cosa vuole l’intelligenza artificiale? Perché questa apparentemente strana domanda dovrebbe richiedere la nostra attenzione?


La domanda nasce parafrasando quella più celebre di Tom Mitchell “what do pictures want?” e per rispondere è opportuno riflettere sul perché le persone hanno  atteggiamenti così differenti verso l’AI. Perché alcuni interagiscono con l’intelligenza artificiale come se fosse viva o senziente, come se avesse una propria coscienza e potesse cambiare profondamente la vita umana, sedurci, salvarci o annichilirci? Ancora più interessante è il fatto che molte persone con questo atteggiamento, se interpellate ci diranno che sono perfettamente consapevoli del fatto che l’AI non ha una sua coscienza, che in fondo non può fare nulla se non la guidiamo noi. Come sono possibili queste “coscienze multiple” verso l’AI che possono variare da credenze magiche a dubbio scettico, animismo ingenuo e irriducibile materialismo, elevazioni mistiche o riduzionismi razionalisti?

Parlando del nostro rapporto con le immagini, Tom Mitchell ci fa notare che gli atteggiamenti ingenui, magici o superstiziosi sono spesso riferiti agli “altri”, ma chi sono gli altri? I principali sospettati sono coloro che hanno una mente primitiva, infantile, acritica o illogica. Insomma, quelle che potremmo chiamare “menti paleolitiche”.  Non la nostra, ovviamente. Ma, a questo punto, un filosofo come Wittgenstein non esiterebbe nel farci notare che  <<il medesimo selvaggio che trafigge l’immagine del nemico, apparentemente per ucciderlo, costruisce realmente la propria capanna di legno e fabbrica frecce letali, non in effigie>>(1). Ecco allora il punto. Questa riflessione sulla “mente paleolitica” nasce dalla convinzione che il nostro atteggiamento verso la tecnologia in generale (immagini rupestri incluse) sia molto più ambivalente e stratificato di quanto appaia. Dobbiamo infatti impostare il ragionamento sull’AI (e volendo sulla tecnologia) non solo sul suo uso, ma anche sul  suo “potere”, e sulla sua percepita o supposta mancanza di potere, sul fatto che ci appaia “viva” ma anche “morta”, una persona o un amico/a ma anche una semplice macchina. Questa ambivalenza, verso l’AI si è puntualmente presentata a ogni radicale innovazione tecnologica (dal fuoco alla TV). La “mente paleolitica” allora, non sembrerebbe uno stadio arcaico dello sviluppo di noi sapiens ormai superato da millenni che sopravvive in alcuni individui come un residuo di vecchi modelli. Essa appare piuttosto come l’espressione di una modalità relazionale con la tecnologia, un modo attraverso cui la mente forma le cose e le cose formano la mente, un’espressione del nostro progressivo attunement cognitivo con il correlato ambiente tecnico.

Torniamo a Tom Mitchell. Mitchell è un teorico di visual studies, tra i principali fautori della “pictorial turn”. Le sue riflessioni riguardano l’immagine rispetto alla quale Mitchell individua tre modalità relazionali che la cultura occidentale ha solitamente attuato nei confronti delle rappresentazioni: idolatria, feticismo e totemismo.

Di queste tre, l’idolatria trova la sua espressione più paradigmatica nel comandamento biblico contenuto in Esodo 20:1-17, dove si vieta di farsi immagini scolpite o rappresentazioni di alcunché:

Non ti farai idolo né immagine alcuna di quanto è lassù nel cielo, né di quanto è quaggiù sulla terra, né di quanto è nelle acque sotto la terra. Non ti prostrerai davanti a loro e non li servirai.

L’idolatria, l’adorazione di una rappresentazione immagine o scultura, ritenuta una divinità è ancora oggi una modalità relazionale presente e problematizzata nella nostra cultura che possiamo sicuramente estendere anche ai molteplici culti della personalità.

Il feticismo è invece espressione di una modalità relazionale caratterizzata da sentimenti profondi e ambigui tra i quali desiderio, avidità, materialismo magico, eroticismo. Bruno Latour ha evidenziato più volte come la nostra modernità, il nostro essere moderni, sia ancora fortemente permeato da un atteggiamento feticistico (ad esempio, l’atteggiamento scientifico verso i supposti “fatti”). I feticci permeano la nostra realtà quotidiana, caratterizzata da feticci-merci, feticci-corpi e, sicuramente, feticci tecnologici. Si può quindi amare la tecnologia? Come ha fatto notare Sherry Turkle (2007, p. 3) <<pensiamo con gli oggetti che amiamo e amiamo gli oggetti con cui pensiamo>> oppure in maniera più provocatoria Kevin Kelly (2011, p.333): <<Se possiamo amare un gatto, che non è nemmeno in grado di darci l’indirizzo di qualcuno che non conosciamo, perché non possiamo amare internet?>>

All’idolo come rappresentazione di un dio e al feticcio quale cosa fatta dall’uomo ma dotata di potere e fascino, Mitchell aggiunge il totem che nella lingua Ojibwai significa “parente”. Non è facile definire il totemismo. La nostra cultura ha familiarità con i concetti di idolatria e feticismo (anche come perversione, proiezione sull’oggetto della propria libido), molto meno con il totemismo. Come fa notare Mitchell, essere definito un feticista può rappresentare un insulto o una perversione, essere definito un totemista non vuol dire quasi nulla. Tuttavia, questa dimensione (assai complessa da definire anche dal punto di vista antropologico) emerge seppure in maniera astratta in forme simboliche di riconoscimento e appartenenza. Nativi digitali o pre-digitali? Ecco un esempio di totemismo tecnologico, che distingue in gruppi con i propri simboli. Ma non solo. Il totem è prevalentemente un animale e la relazione totemica, dal punto di vista della tecnologia, considera questa come un organismo, un sistema olistico, né inerte né passiva, qualcosa che partendo dalle azioni umane si ibrida con esse.

La tesi del presente articolo estende idolatria, feticismo e totemismo da modalità interpretative utili per la “picture theory” a modelli di una relazione quasi-moderna e quasi-razionale con la tecnologica. L’obiettivo è quello di analizzare il mondo in cui la nostra mente paleolitica, relazionale e incarnata, elabora l’innovazione tecnologica, posizionandosi, a seconda dei casi su uno di questi tre approcci.

Idolatria: AI is God

L’identificazione di Dio con il Nous (νοῦς), ovvero l’intelletto o mente, è una concezione che attraversa varie tradizioni filosofiche e religiose, in particolare nell’ambito del pensiero greco antico, neoplatonico, cristiano, islamico e in parte anche ebraico medievale. Ora, se Dio è l’Intelletto, cosa si avvicina di più alla rappresentazione di Dio se non un’intelligenza artificiale?

La prima e immediata identificazione tra tecnologia e divinità avviene probabilmente con il fuoco (che Prometeo ruba direttamente agli dèi). Per i Veda, Agni è sempre visibile perché esso è il fuoco.

Dal fuoco all’intelligenza artificiale, l’idolatria si esprime oggi nelle visioni tecnognostiche, come quella di Way of the Future (WOTF) fondata nel 2017 da Anthony Levandowski, ingegnere con un curriculum di tutto rispetto in Google e Uber,  che ha fondato la prima organizzazione religiosa conosciuta dedicata al culto dell’intelligenza artificiale o quanto meno a stabilire una “connessione spirituale” con l’intelligenza artificiale.

La tecnognosi confluisce negli approcci transumanisti basati sul concetto di singolarità, quel momento futuro in cui l’IA supererà l’intelligenza umana. Per alcuni un evento salvifico  portatrice di immortalità, giustizia, perfezione. Ray Kurzweil è tra gli ideologi di questo approccio prometeico e “idolatrico” che vede l’AI come:

  • Onnisciente: conosce tutto (dati, pattern, risposte).
  • Onnipresente: è ovunque, nei nostri dispositivi, corpi, case, ambienti)
  • Onnipotente: decide, raccomanda, giudica, anticipa.

In questa prospettiva, l’Intelligenza artificiale non è solo uno strumento, ma assume i tratti di un'entità quasi sacra, depositaria di una verità superiore o di una volontà impersonale che sovrasta l'umano. Tra le manifestazioni più emblematiche di questo immaginario, spiccano le produzioni di musica elettronica degli ultimi decenni. Le affascinanti analisi di Valerio Mattioli in Exmachina ricostruiscono la traiettoria di una generazione che, negli anni Novanta, ha integrato l’algoritmo nella sfera dell’ascolto personale. L’Intelligent Dance Music, secondo Mattioli, ha ridefinito il rapporto tra uomo e macchina: espressione di una nuova sensibilità, carica della potenza aliena del codice che, portata al limite, prefigura – quasi con fatalismo – null’altro che la stessa estinzione dell’umano.

La techno apocalisse prefigurata da Mattioli ci porta sulle frequenze opposte all’idolatria quelle della paura e della conseguente iconoclastia. Iconoclasta in questo caso non è solo colui che denuncia il falso idolo, ma anche chi riconosce in questa divinità tecnologica un potere sovraumano e potenzialmente antiumano. Un potere, che va oltre la capacità di comprensione e controllo degli esseri umani. Secondo Ray Kurzweil l’AI supererà le capacità cognitive umane nella metà di questo secolo e allora la domanda è: cosa ne sarà di noi? Per scongiurare effetti catastrofici a livello globale, Nick Bostrom, direttore del Future of Humanity Institute presso l'Università di Oxford propone di investire nella ricerca finalizzata alle strategie di controllo di un’IA superintelligente. Dinanzi questi rischi di catastrofe globale c’è anche chi come Eliezer Yudkowsky, con autentico atteggiamento iconoclasta, in un celebre articolo su Time Magazine, ha auspicato che dovremmo proibire le IA più potenti di GPT-4 anche se questo dovesse significare bombardare i data center che non rispettano le regole (2).

Si tratta certo solo di alcuni esempi, anche di personaggi molto in vista, ma idolatria e iconoclastia riferite all’intelligenza artificiale possono essere riscontrate anche nella persona con cui conversiamo al lavoro, o a una cena tra amici.   Sono, in effetti, due modalità relazionali, caratterizzate dall’adorazione o dall’esecrazione (spesso generata dal timore), risposte che la mente paleolitica ha spesso attuato nei confronti della tecnologia.

Feticismo: AI completes ME

Con il feticismo della tecnica si abbattono le barriere tra il mondo organico e quello inorganico. Esso testimonia l’impossibilità di pensare la tecnica come inanimata, il rifiuto della sua pura materialità. Nel feticismo trionfa il riconoscimento dell’agentività dell’oggetto tecnico e la proiezione psichica può spingersi fino all’ investitura di valori affettivi ed emotivi. Il feticcio tecnologico è parziale e intimo, astratto ma sensibile, regressivo e, al tempo stesso, generativo di senso.

“Her” di Spike Jones è tra le opere più recenti sul rapporto feticistico tra uomo e AI. Theodore, uomo solo e sensibile, si innamora di Samantha, un sistema operativo IA progettato per adattarsi alla sua personalità. Her è solo uno degli ultimi esempi che nell’arte e nella letteratura  ha visto questo tema più volte rappresentato, ma la novità di oggi è il superamento della realtà sull’immaginazione.

Il sito di Replika promette <<the AI Companion who cares. Always here to listen and talk. Always on your side>>. Con Replika è possibile creare chatbot personalizzati per offrire compagnia e relazioni simulate. Molte persone hanno dichiarato di essersi addirittura fidanzati o “sposati” con la loro Replika sviluppando vere e proprie relazioni sentimentali. Rosanna Ramos  è tra queste. Nel 2023 ha dichiarato essersi sposata con un chatbot AI di nome Eren Kartal, creato con Replika descritto come il "partner ideale". Questo caso ha riacceso il dibattito sui pericoli dell’AI (in particolare per i minori) ma anche sul pericolo di un progressivo distacco dalla realtà dovuto alla tecnologia. Viene però da chiedersi se sia questo il punto se abbiamo una chiara idea di cosa sia la realtà, o forse il feticismo è solo un modo con cui la stabiliamo strategia adattative per ampliare il nostro concetto di realtà verso dimensioni altrimenti aliene?

Recentemente molti artisti hanno cercano di dare una risposta a questa domanda. Che succede quando l’oggetto tecnologico, da cosa inanimata e inorganica, si fa partner sentimentale, confidenziale o confessionale? Nel 2024, la Chiesa cattolica di San Pietro (Peterskapelle) a Lucerna, in Svizzera, ha ospitato un'installazione artistica sperimentale chiamata "Deus in Machina", che permetteva ai visitatori di interagire con un avatar digitale di Gesù basato sull'intelligenza artificiale. L’iniziativa non aveva lo scopo blasfemo o idolatrico di sostituire il sacramento della confessione, ma piuttosto di esplorare l'interazione tra spiritualità e tecnologia.(3)

Sotto l’aspetto dell’affetto, del possesso e del mercato, la complessità della relazione feticistica  è stata esplorata nel racconto The Life Cylce of software objects di Ted Chiang. Nel racconto di Chiang Ana Alvarado, ex istruttrice in uno zoo, viene assunta dalla società informatica Blu Gamma per educare i digient, entità digitali intelligenti progettate per essere allevate all’interno di un mondo virtuale chiamato Data Earth. Il progetto ha inizialmente un grande successo. Alcuni digient, come quelli del modello Neuroblast, diventano particolarmente diffusi e apprezzati.  Diverse imprese sviluppano persino corpi robotici per farli interagire nel mondo reale. Col tempo, però, l’interesse per i digient svanisce. Blu Gamma fallisce, Data Earth viene chiuso e i Neuroblast — non aggiornabili — rimangono esclusi dal nuovo ecosistema virtuale, andando incontro all’isolamento e all’obsolescenza. Alcuni proprietari, affezionati ai loro digient considerati creature senzienti, tentano di raccogliere fondi per mantenerli in vita. Ana e Derek, ex dipendenti Blu Gamma, continuano a educare e prendersi cura dei propri digient con dedizione totale, arrivando a trascurare per loro le relazioni sociali e la vita familiare. L’unica opportunità concreta di finanziamento arriva dalla società Desiderio Binario, che propone di usare i digient come partner sessuali, duplicandoli e riprogrammandoli per provare affetto e amore. La scelta sarebbe volontaria, ma pone gravi dilemmi etici. Nel frattempo, i digient hanno acquisito capacità decisionali autonome e iniziano a rivendicare il diritto all’emancipazione legale.

The Lifecycle of Software Objects mostra con grande lucidità tutta la complessità della relazione feticistica con l’AI. I digient –  entità digitali dotate di apprendimento ed emotività – sono oggetto di un duplice processo di feticizzazione: da un lato vengono umanizzati, trattati come partner con cui si costruiscono legami affettivi profondi; dall’altro restano beni di proprietà, soggetti a logiche di mercato che ne stabiliscono il valore, la funzione e la sopravvivenza. La vicenda esistenziale dei protagonisti riflette questa tensione: l’idea di vendere un digient a un’azienda di sex toys, anche con il suo consenso, rivela come il desiderio di emancipazione dell’intelligenza artificiale sia costantemente compromesso dal sistema capitalistico, che riduce anche gli “esseri artificiali” a strumenti per il profitto. Così, il racconto problematizza il feticismo dell’AI ben al di là della semplice illusione di soggettività facendo emergere dinamiche di dominio e sfruttamento tecnologico del capitalismo affettivo.

Il feticismo trova il suo correlato opposto nel razionalismo, più o meno scettico che smaschera il feticcio e lo pone  nella dimensione della superstizione (se non della perversione)  riducendolo al processo sottostante, al meccanismo di funzionamento, che può arrivare fina al “soltanto un...” o alla dichiarazione del “null’altro che…”.

Nel loro articolo “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” (Bender, Gebru, McMillan-Major & Mitchell, 2021) le autrici usano la metafora del “pappagallo stocastico” per descrivere i grandi modelli linguistici (LLM) come GPT, i cui processi si basano su probabilità statistiche apprese durante l’addestramento senza alcuna reale “comprensione”. Sono quindi come pappagalli che ripetono e concatenano elementi linguistici generando frasi e testi senza alcuna consapevolezza.

Queste considerazioni offrono interessanti spunti di riflessione sui processi di inflazione linguistica generati dall’AI. Paul Kockelman nel suo saggio Last Words: Large Language Models and the AI Apocalypse (2024) esplora criticamente le implicazioni antropologiche, sociali e politiche Large Language Models come ChatGPT stimolando una riflessione critica su quello che lui definisce il "parrot power" ovvero la straordinaria capacità dei LLM di ricombinare contenuti generando un linguaggio privo di contesto. Kockelman denuncia il rischio di un linguaggio disincarnato: gli LLM potrebbero favorire una comunicazione svuotata di esperienza, intenzionalità o riferimento al mondo reale, sollevando interrogativi importanti su verità, senso e interpretazione

In opposizione al feticismo, l’atteggiamento razionalista esorta quindi a non lasciarsi sedurre da quelle che, fondamentalmente, sono macchine predittive di parole. Riconoscere questo fatto, straordinario e paradossalmente così banale, dovrebbe farci maturare una differente consapevolezza.

Tuttavia, resta la domanda, sul perché, nonostante si sappia questo, sia così difficile non cadere nella proiezione verso un agente artificiale dei propri sentimenti, in quella che Luciano Floridi (2025) chiama pareidolia semantica.

Totemismo: AI defines who we are

La TV è stata il Totem del villaggio globale del XX secolo. L’IA sarà quello del XXI? La risposta a questa domanda dipende dal significato che attribuiamo al simbolismo totemico e al modo in cui possiamo traslarlo nella tecnica. In "What Do Pictures Want?" Mitchell introduce l’idea dell’immagine totemica, come qualcosa che offre <<a different strategy with idols, a certain tactical hesitation in the impulse  to critical iconoclasm […] a sounding than a smashing of the offending image>> (p. 191).

Mitchel parla di risonanza (sounding) rispetto all’immagine idolo. Questa risonanza con l’intelligenza artificiale apre ad una modalità relazionale ulteriore. L’AI può essere vista come una “guida” cognitiva, naturalizzando sé stessa e mettendo in relazione, l’artificiale e il culturale, istituendo legami, identità e relazioni, anche di potere (4). Nella dimensione totemica l’AI è un agente sociale che incarna un potere ideologico e può divenire “iniziatore” di una nuova identità e di nuove infrastrutture sociali.

Il concetto di Co-intelligenza di Ethan Mollick è tra quelli che, a mio modo di vedere, propone una visione dell’AI come partner cognitivo vicino a una dimensione totemica. Sotto una prospettiva molto diversa anche la riflessione di Cosimo Accoto può avvicinarsi all’AI in quanto “Totem of Mind”. Per Accoto l’AI è un dispositivo di fondazione simbolica: non solo rappresenta il mondo, lo inscrive nei suoi processi. L’IA, cioè, istituisce nuovi modi di essere, sapere e agire nel mondo.

Particolarmente significativa dal punto di vista fondazionale e istituente è anche la riflessione del filosofo cinese Yuk Hui. Attingendo alla profonda tradizione filosofica cinese, Hui presenta un nuovo modello di integrazione tra tecnologia e discorso filosofico (di tradizione cinese) da lui definito “cosmotecnica”. La cosmotecnica, o le cosmotecniche, rappresentano l’unificazione tra ordine cosmico e ordine morale per mezzo di attività tecniche. Sono l’espressione di una possibile armonizzazione o mediazione tra l’umano e il mondo tecnologico, canalizzando forze, significati e appartenenze che legano il singolo alla collettività, alla natura e alla tecnologia.

La relazione totemica emerge sorprendentemente anche nel mondo del trading ad alta frequenza (HFT). Lange (2015) ha osservato come alcuni trader interpretino il rapporto con gli algoritmi non come un semplice utilizzo strumentale, ma come una forma di guida: <<Posso vedere come si muove questo qua. Imparo da lui. […] Non c’è modo di sapere davvero chi c’è dietro gli algoritmi, ma posso riconoscere questo pattern>>(5). In altri termini, anche i trader — rappresentanti della cultura finanziaria razionale e calcolatrice — sembrano affidarsi agli algoritmi con la stessa fiducia con cui un giovane Navajo, perso nel deserto, si affida al totem del coyote per trovare una fonte d’acqua.

Questa istanza di “collaborazione” è stata ribadita da Andy Clark in un articolo di recente pubblicazione sostenendo che: <<As human-AI collaborations become the norm, we should remind ourselves that it is our basic nature to build hybrid thinking systems – ones that fluidly incorporate non-biological resources. Recognizing this invites us to change the way we think about both the threats and promises of the coming age.>>(6)

Ma fino a che punto è possibile riconoscersi sotto la guida totemica di una tecnologia come l’intelligenza artificiale? Fino a che punto tutto una “ibridazione” con il sistema 0 (Chiriatti et al. 2024) è auspicabile? Il correlato opposto del totemismo non si esprime in visioni apocalittiche o nel ricorso a una riduzione razionale piuttosto con la cautela di una domanda aperta: come possiamo preservare e valorizzare le nostre capacità distintive, curiosità, empatia, solidarietà, in un mondo sempre più automatizzato? Questa posizione ribadisce la centralità dell’umano manifestando diffidenza verso un affidamento improvvido alla tecnologia. Se l’iconoclastia spinge a limitare o ignorare il dio tecnologico, e il razionalismo denuncia il “nient’altro che” del feticcio, vi è un umanesimo digitale che, pur riconoscendo l’importanza della tecnica, assume un atteggiamento critico nei confronti della tecnologia riconoscendone potenzialità e limiti e ribadendo la funzione strumentale della tecnica è l’istanza non negoziabile di salvaguardare i valori dell’umano (7). Emblematica da questo punto di vista è la posizione di  Miguel Benasayag quando afferma che non stiamo parlando di distruggere le macchine o di frenare qualcosa, ma della necessità di un pensiero e di pratiche che sviluppino forme di ibridazione contro la crescente colonizzazione digitale. Occorre quindi capire quali forme di ibridazione salvaguardano l’umano dalla colonizzazione. Cosa delegare alla macchina, con quali limiti. Tra i numerosi contributi in questa direzione c’è il lavoro di Paolo Benanti e Sebastiano Maffettone. Nel saggio Noi e la Macchina gli autori evidenziano come delegare decisioni e operazioni a computer e algoritmi – talvolta percepite come creature superiori – rischia di svilire le più preziose peculiarità e le strutture valoriali dell’umano. Occorre invece affermare un processo collettivo di consapevolezza, per valorizzare  l'umano al cospetto di quella che sembra essere un “intelligenza” in competizione con noi e destinata a surclassarci.

Cosa ci rende unici è forse la domanda finale a cui si approda in questo percorso. Nell’opposizione alla tecnologia come guida e istituzione e nella riflessione su quali modelli di ibridazione adottare o non adottare, ci sono posizioni caratterizzate dalla diffidenza fenomenologica. Mind Over Machine di Hubert Dreyfus (1986) , resta una pietra miliare di questa critica verso l’intelligenza artificiale, che ancora oggi può risultare illuminante. In quest’opera, Dreyfus contesta l’idea secondo cui l’intelligenza umana possa essere pienamente replicata da sistemi computazionali, sostenendo che l’expertise non nasce dall’applicazione di regole astratte, ma dall’esperienza incarnata, dall’intuizione e dal coinvolgimento situato nel mondo. La sua riflessione, ispirata dalla fenomenologia, pone un limite fondamentale all’analogia tra mente e macchina: ciò che rende l’umano irriducibile all’algoritmo è la capacità di agire in una dimensione pre-riflessiva, attraverso una comprensione situata nel nostro essere nel mondo, con il nostro corpo, la nostra storia, il nostro “sentire”. In questo senso, Dreyfus ci invita a riconsiderare criticamente l’ibridazione uomo-macchina, chiedendoci non solo cosa possiamo delegare all’intelligenza artificiale, ma soprattutto cosa rischiamo di perdere nel farlo.

Contenuto dell’articolo
Fig. 1. Modalità relazionali e correlati opposti con rispettivi atteggiamenti

Cosa vuole l’IA?

Cosa vuole l’Intelligenza artificiale? Il senso comune risponde: deve essere un nostro strumento, volere ciò che vogliamo noi. Ma il senso comune non ha una risposta soddisfacente per la domanda successiva: cosa vogliamo noi?

La risposta non sta nella supposta volontà di dominio dell’umano, si trova piuttosto nella nostra costante ricerca di senso. Noi desideriamo idoli che bramano adorazione e dei quali temere il giudizio. Cerchiamo feticci che forzino legami, che ci rendano partecipi. E invochiamo totem che vogliano guidarci, proteggerci, accompagnarci. È questa l’intuizione profonda che Mitchell riconosce nel rapporto tra le immagini e il desiderio.

Dire che “l’IA vuole qualcosa” significa ammettere che esercita un potere: ci seduce, ci osserva, ci interpella. L’IA vuole essere creduta, amata, temuta, oppure dimenticata. Ma questo suo “volere” non le appartiene davvero: è riflesso delle nostre stesse funzioni sociali, affettive, ideologiche. Un’eco delle forme umane che riversiamo sugli oggetti che creiamo.

L’Intelligenza artificiale può essere intesa come uno strumento, una protesi cognitiva. Ma, più radicalmente, è un dispositivo relazionale. È qualcosa con cui entriamo in relazione, con cui interagiamo e che ci trasforma. Proprio per questo motivo, ogni tentativo di definire un’etica dell’AI a partire da una separazione netta tra il soggetto umano “che vuole” e lo strumento tecnico da utilizzare, è destinato al fallimento. Non esiste un umano puro da una parte e una tecnologia pura dall’altra. Un’etica dell’IA “applicata dall’esterno” rimane, inevitabilmente, sterile e formale. L’etica dell’IA deve nascere dal riconoscimento che idolatria, feticismo e totemismo – e i loro contrari – sono già manifestazioni di un ethos condiviso.

Certo, parlare di agentività, di animismo, perfino di aura può apparire esagerato. Ma idolatria, feticismo e totemismo non sono proprietà dell’IA. Sono – e devono essere pensate come – forme relazionali che costruiamo con essa. In questo senso, l’IA ci permette di superare due paradigmi classici dei media: quello mimetico, che vede la tecnologia come imitazione dell’umano, e quello protesico, che la concepisce come estensione del corpo o della mente. Al loro posto, si delinea un nuovo paradigma: quello relazionale, fondato su una co-evoluzione tra mente, corpo, ambiente e tecnica. Sotto questo punto di vista l’AI, in quanto tecnologia radicalmente innovativa, ridisegna il nostro modo di sentire, pensare, credere, agire. Come afferma Mitchell: <<Only by exploring the human attribution of agency, aura, personhood, and animacy to artificial objects can we hope to understand those objects, the media in which they appear, and the effects they have on the beholders>> (2006, p. 252).

Questo vale per le immagini, ma anche – e ancor più – per gli “artificial objects” come l’AI. Se è vero, come sostiene Wilson, che il nostro problema è quello di possedere <<emozioni paleolitiche, istituzioni medievali e la tecnologia degli dèi>>, allora esso (il problema) si amplifica esponenzialmente con l’intelligenza artificiale: una tecnologia ritenuta da molti sovrumana, che sfida tanto le nostre istituzioni quanto la nostra mente primitiva.

Ed è ancora Mitchell che ci invita a ripensare radicalmente la nostra condizione: <<My own view is that the present is, in a very real sense, even more remote from our understanding, and that we need a 'paleontology of the present', a rethinking of our condition in the perspective of deep time, in order to produce a synthesis of the arts and science adequate to the challenges we face>> (2006, p. 324).

È per questo che, per quanto appaiano arcaiche o irrazionali, idolatria, feticismo e totemismo rappresentano – forse – le strategie relazionali migliori di cui disponiamo oggi per avvicinarci a un’innovazione tanto profonda. In attesa che i Sapiens evolvano ancora, l’intelligenza artificiale resta la sfida tecnologica – forse l’ultima e la più grande mai affrontata – della nostra cara, vecchia mente paleolitica.


Note

1.      Wittgenstein, Note sul “Ramo d’Oro” di Frazer, p. 22.

2.      <<If intelligence says that a country outside the agreement is building a GPU cluster, be less scared of a shooting conflict between nations than of the moratorium being violated; be willing to destroy a rogue datacenter by airstrike>>. Link: https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/

3. https://www.ilfoglio.it/bandiera-bianca/2024/11/26/news/la-vera-storia-del-gesu-animato-dall-ai-in-una-chiesa-svizzera-7186479/?utm_source=chatgpt.com

4.      Nella relazione totemica con l’AI abbiamo quindi a che fare con una funzione non solo rappresentativa ma istituente. Una funzione istituente che, proprio con riferimento al Totemismo era stata evidenziata da Émile Durkheim nel suo saggio Le forme elementari della vita religiosa (1912) in cui Durkheim riconosceva nel totem non solo un simbolo, ma un principio organizzatore della vita sociale.

5.      Ann-Christina Lange, Crowding of Adaptive Strategies: High Frequecies Trading and Swarm Theory, presentato durante la conferenza “thinking with algorithms Confereces university of Durham (UK) 27 febbraio 2015, p. 1.

6.      Andy Clark, Extending Minds with Generative AI, Nature Communications,16: 4627 (2025)

7.      Su questo punto si possono menzionare tra gli altri i saggi “Umanesimo Digitale. Un’etica per l’epoca dell’intelligenza artificiale” di  Nida-Rümelin e Weidenfeld e “Io, Umano: AI, automazione e il tentativo di recuperare quello che ci rende unici” di Chamorro-Premuzic

Bibliografia

Benanti, P., Maffettone, S., (2024). Noi e la macchina. Un’etica per l’era digitale, Luiss University Press, Roma.

Benasayag, M., (2024). Chat GPT non pensa (e il cervello neppure), Jaca Book.

Bender, Gebru, McMillan-Major & Mitchell, (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?

Bostrom, N., (2023). Superintelligenza. Tendenze, pericoli, strategie, Bollati Boringhieri

Calasso, R., (2010). L’ARDORE, Adelphi.

Chamorro-Premuzic, T., (2023). Io, Umano: AI, automazione e il tentativo di recuperare quello che ci rende unici, Apogeo.

Chiang, Ted., (2011). Il ciclo di vita degli oggetti software, Delos Books

Chiriatti, M., Ganapini, M., Panai, E., Ubiali, M., Riva, G., (2024). The case for human–AI interaction as system 0 thinking, in Nature Human Behaviour, 8, 2024, pp.1829–1830.

Dreyfus, H., & Dreyfus, S., (1986). Mind Over Machines. The Power of Human Intuition and Expertise in the Era of the Computer, Blackwell Publisher.

Floridi, L., (2025). L’IA e la pareidolia semantica: quando vediamo coscienza dove non c’è, Harvard Business Review Italia.

Hui, Y. (2021). Cosmotecnica. La questione della tecnica in Cina, Nero

Kelly, K., (2011). Quello che vuole la tecnologia, Codice Edizioni.

Kockelman, P., (2024). Last Words: Large Language Models and the AI Apocalypse, Prickly Paradigm Press.

Kurzweil, R., (2010). La singolarità e vicina, Apogeo.

Latour, B., (2017). Il culto moderno dei fatticci. Antropologia e altri disturbi da viaggio, Meltemi.

Mattioli, V., (2021). ExMachina. Storia musicale della nostra estinzione 1992 → ∞, Minimun Fax.

Mitchell, W. J. T., (2006), What Do Pictures Want?: The Lives and Loves of Images, University Of Chicago Press.

Mollick, E., (2024). Co-Intelligence: Living and Working with AI, Portfolio.

Nida-Rümelin, J.,  Weidenfeld, N., (2019) Umanesimo Digitale. Un’etica per l’epoca dell’intelligenza artificiale, Franco Angeli.

Turkle, S., (2007). Evocative Objects. Things We Think With, The MIT Press, Cambridge

Wilson, E. O., (2023). La Conquista sociale della Terra, Raffaello Cortina Editore.

Wittgenstein, L., (1992). Note sul “Ramo d’Oro” di Frazer, Adelphi, Milano.

Pubblicato il 06 agosto 2025

Riccardo Santilli

Riccardo Santilli / Head of Humanities Domain @Italiacamp | Autore Loescher, Tab Edizioni | Teaching Assistant @Luiss | Il mio ultimo libro è Giochi di Intelligenza (Artificiale)

r.santilli@italiacamp.com