Go down

Frans de Waal e Yann LeCun: il mito dell’intelligenza umana come misura di tutte le cose.

L’intelligenza non è più un’esclusiva dell’essere umano. Negli ultimi decenni, gli studi sull’etologia e l’intelligenza artificiale hanno minato l’antico confine tra istinto e ragione. Ma se gli animali pensano, e le macchine imparano, cosa resta dell’umano?


Frans de Waal, etologo olandese celebre per gli studi sul comportamento e l’empatia animale, e Yann LeCun, scienziato franco-americano pioniere del deep learning e dell’intelligenza artificiale autonoma, sembrano provenire da mondi lontanissimi. Eppure, le loro riflessioni convergono su alcune questioni: l’intelligenza è un’esclusiva umana o un fenomeno condiviso? Quanto conta il corpo nell’apprendere? Una macchina può provare empatia o solo calcolare? E, in definitiva, siamo pronti ad andare oltre l’antropocentrismo?

In questo confronto tra de Waal e LeCun, emergono sorprendenti analogie tra mente animale e mente artificiale, ma anche criticità, in quanto ogni parallelo ci costringe a riconsiderare etica, potere, organizzazione sociale e la stessa definizione di umano.


1. L’intelligenza condivisa

L’intelligenza è prerogativa unica dell’essere umano, oppure è un fenomeno distribuito tra specie diverse, e perfino tra creazioni artificiali?

Frans de Waal ci invita a ridimensionare il nostro orgoglio cognitivo. Già nel suo libro Chimpanzee Politics (1982), raccontando le lotte di potere tra scimpanzé, de Waal notava che la loro organizzazione sociale è fin troppo umana per essere vera. Strategie politiche come bluff, coalizioni e tattiche di isolamento non sono un’esclusiva delle assemblee parlamentari, anche tra le grandi scimmie chi ambisce alla vetta deve tessere alleanze e ottenere ampio consenso. In altre parole, l’intelligenza sociale e politica non nasce con Homo sapiens. L’etologia moderna fornisce infiniti esempi di doti cognitive inaspettate nel regno animale, dai corvi capaci di usare attrezzi, ai giovani scimpanzé che battono gli esseri umani in test di memoria fotografica. Come scrive de Waal, abbiamo a lungo immaginato una rigida scala evolutiva con l’essere umano in cima, ma la realtà assomiglia più a un cespuglio, con forme di cognizione diverse spesso incomparabili alle nostre. Il suo messaggio è chiaro: le menti animali sono molto più intricate e capaci di quanto creduto, e le differenze con la nostra sono di grado più che di natura. La continuità evolutiva - anziché la separazione netta essere umano/bestia - è il paradigma che sta emergendo dalla scienza.

Parallelamente, Yann LeCun - che pure si occupa di reti neurali e non di neuroni biologici - sfida l’idea di un’intelligenza umana sui generis. Egli critica persino il termine “Intelligenza Generale Artificiale” (AGI) come fuorviante, perché suggerisce un traguardo quasi magico: “L’intelligenza umana non è affatto generale: siamo altamente specializzati” afferma. LeCun preferisce parlare di “Intelligenza Macchina Avanzata”, convinto che raggiungere un giorno un’intelligenza di livello umano sia possibile e auspicabile. Ma ciò non significa replicare un’ipotetica scintilla unica dello spirito umano, al contrario, l’AI dovrà colmare poco alla volta il divario che oggi la separa perfino dagli animali più comuni. LeCun ricorda infatti che i sistemi attuali non comprendono il mondo neanche quanto un gatto domestico. Anzi, egli osserva che persino costruire un’AI intelligente quanto un corvo, un ratto o un gatto sarebbe un enorme progresso rispetto allo stato attuale. Questa consapevolezza ridimensiona non solo l’hype sull’AI onnisciente, ma anche l’idea che l’intelligenza sia un monolito posseduto solo dall’essere umano. In natura esiste una diversità di menti, riconoscerlo significa, per la nostra specie, perdere l’esclusiva ma guadagnare una visione più ampia. Se l’intelligenza è diffusa tra specie (e forse replicabile nelle macchine), su cosa basiamo allora il nostro senso di superiorità e il diritto di dominio sugli altri?

2. Apprendere dal corpo

Come si sviluppa l’intelligenza? È possibile “pensare” senza un corpo che interagisce con l’ambiente? E le macchine possono davvero imparare come facciamo noi?

Gli esseri viventi nascono immersi nel mondo reale, e imparano facendo. Un cucciolo di scimpanzé impiega anni, giocando e osservando gli adulti, per affinare abilità essenziali: rompere noci con pietre, riconoscere cibi commestibili, evitare pericoli nella foresta. Nulla di tutto ciò avviene in astratto; è un apprendimento radicato nei sensi e nei movimenti del corpo. De Waal sottolinea che i giovani primati hanno bisogno di una lunga infanzia culturale, se un gruppo di scimpanzé cresciuti in cattività venisse rilasciato in natura senza preparazione, non saprebbe come sopravvivere, “morirebbe perché non sa cosa mangiare, né come orientarsi”. Queste competenze non sono istinti automatici, ma frutto di imitazione e esperienza concreta. Anche la nostra specie non fa eccezione, ogni bambino esplora il mondo fisico, toccando, provando, sbagliando, e così costruisce pian piano un modello mentale della realtà. Il neuroscienziato Antonio Damasio parlò di “mente incarnata”, l’intelligenza umana emerse e tuttora funziona grazie a un corpo che percepisce emozioni, dolore, piacere, orientamento spaziale. Insomma, il corpo insegna continuamente alla mente.

Yann LeCun sposa questa visione dell’apprendimento e la proietta sul futuro delle macchine. Nel suo saggio A Path Towards Autonomous Machine Intelligence (2022), egli delinea la sua “visione per costruire agenti intelligenti autonomi che apprendano più come animali e umani, capaci di ragionare e pianificare, guidati da obiettivi interni anziché da programmi predefiniti o ricompense esterne”. In pratica, LeCun sostiene che le AI veramente avanzate dovranno imparare dal mondo in maniera simile a come facciamo noi, attraverso sperimentazione e motivazioni intrinseche (una sorta di curiosità artificiale). Un esempio lampante è la guida: “Qualsiasi diciassettenne può imparare a guidare un’auto con 20 ore di pratica, eppure ancora non possediamo veicoli autonomi di livello 5”, nota LeCun. I sistemi attuali di guida autonoma richiedono enormi quantità di dati e casi particolari programmati - in sostanza, barano - mentre un giovane umano, grazie al proprio corpo e cervello, generalizza in fretta dalle poche esperienze di guida. Ciò indica che c’è qualcosa nell’apprendimento umano/animale (forse la comprensione implicita delle leggi fisiche, del contesto sensoriale, degli obiettivi) che sfugge agli algoritmi odierni.

Le reti neurali di ultima generazione, come le grandi reti linguistiche, imparano a suon di statistiche su dataset giganteschi, ma restano disincarnate, non hanno un perimetro fisico, non hanno occhi né mani. Questo può renderle straordinariamente abili a simulare conversazioni o riconoscere immagini statiche, ma limita il loro buon senso. “I modelli linguistici attuali non capiscono il mondo reale meglio di un gatto di casa” ribadisce LeCun, definendoli un “mezzuccio” che predice parole senza vera comprensione. Mancando di esperienza diretta della realtà, la loro conoscenza è spesso superficiale e può scollegarsi dal buon senso comune. Per superare questi limiti, secondo LeCun, l’AI dovrà integrare modalità sensoriali ricche - visione, udito, motricità - e costruire al proprio interno un “world model”, un modello del mondo che permetta di fare previsioni sulle conseguenze delle azioni. In fondo, nota lo scienziato, prevedere gli esiti delle azioni “è ciò che ci permette di ragionare e pianificare”, e persino molti animali non umani sanno farlo a livelli base (pensiamo a un gatto che sceglie con cautela il balzo da compiere), mentre le AI puramente disincarnate no. La lezione politico-filosofica qui è duplice, da un lato, riconoscere il valore cognitivo dell’embodiment significa apprezzare il legame profondo tra mente e ambiente (e dunque, ad esempio, capire perché impoverire l’esperienza sensoriale - anche dei bambini umani - può limitare lo sviluppo mentale); dall’altro, progettare AI più incarnate e autonome pone nuove sfide etiche. Se un domani le macchine dovessero apprendere dal mondo reale come creature viventi, dovremo chiederci cosa le motiverà. Saranno addestrate attraverso corpi robotici, magari in ambienti simulati, e con quali rischi? Un’AI dotata di percezioni e bisogni propri inizia forse a sconfinare nel territorio che finora riservavamo agli esseri senzienti?

3. Empatia e calcolo

Gli animali provano empatia, le macchine no: è davvero così netto il divario? Cos’è l’empatia e può essere simulata o integrata nell’AI? E con quali implicazioni morali e sociali?

Frans de Waal è noto per aver sfatato il mito dell’animale “bruto e insensibile”. Le sue ricerche hanno documentato innumerevoli episodi di empatia e comportamenti altruistici nel regno animale. Già i primati nostri cugini manifestano empatia in forme paragonabili alle nostre: “se vedono un loro simile piangere, lo confortano e lo aiutano, esattamente come farebbe un bambino umano” racconta de Waal. Nel suo libro The Age of Empathy (2009), egli sostiene che l’empatia “viene naturale” tanto all’essere umano quanto ad altri animali, perché ha profonde radici evolutive. La forma più basilare è il contagio emotivo, vediamo un volto sorridente e sorridiamo a nostra volta, vediamo qualcuno soffrire e percepiamo un’ombra di quel dolore. De Waal spiega che questo rispecchiamento automatico - mediato anche dai neuroni specchio - è il nucleo primordiale dell’empatia. Specie con cervelli socialmente complessi, come scimmie antropomorfe, elefanti, delfini, mostrano anche livelli più avanzati in quanto cercano di capire cosa turba l’altro individuo e forniscono aiuto mirato alla situazione. Insomma, l’empatia non è un’invenzione della morale umana, semmai è il suo precursore biologico. “Senza empatia non puoi essere un essere morale” afferma de Waal, è la capacità di sentire con gli altri che ci spinge a preoccuparci del loro destino. Non a caso, egli considera l’empatia la base su cui è fiorita la moralità umana, un tessuto di norme e valori che espande la cura oltre l’immediato cerchio sociale.

Ma questa espansione è difficile e incompleta. De Waal nota che l’empatia, per sua natura evolutiva, è parziale, più forte verso chi ci è simile o vicino (il familiare, il compagno di tribù) e debole verso estranei o membri di out-group. La storia della civiltà può essere letta come uno sforzo continuo per allargare i confini dell’empatia, ad esempio, convincendoci a trattare bene persino i nemici prigionieri, come sancito dalle Convenzioni di Ginevra, cosa che a nessun’altra scimmia verrebbe in mente. Ogni progresso etico richiede di correggere con la ragione l’innata “miopia” dell’empatia naturale. E tuttavia, de Waal insiste che ignorare l’empatia è pericoloso: nell’architettura di Homo sapiens, empatia e collaborazione sono mattoni portanti tanto quanto competizione e aggressività. Egli critica, ad esempio, certe derive politiche che dipingono la natura solo come lotta spietata: “i conservatori amano giustificare politiche egoistiche invocando la ‘lotta per la vita’, ma sbagliano grossolanamente. Molti animali sopravvivono grazie alla cooperazione, e la nostra specie in particolare dipende dalla mutua assistenza: empatia e solidarietà sono nel nostro DNA”. Di conseguenza, organizzare la società umana esclusivamente sul profitto e la rivalità significa disconoscere metà della nostra eredità naturale. Le intuizioni di de Waal hanno un sapore politico-critico evidente, ci obbligano a chiedere quale visione dell’umano ispiri le nostre istituzioni. Se scegliamo di credere che “homo homini lupus” (l’essere umano è lupo per l’essere umano), costruiamo sistemi che premiano i peggiori istinti; se riconosciamo invece che la compassione è altrettanto reale e naturale, allora dovremmo progettare sistemi che la coltivino.

E le macchine in tutto questo? Possono, o dovrebbero, avere empatia? O è un errore anche solo usare la parola “empatia” fuori dal regno animale? Yann LeCun, pur venendo da tutt’altro campo, ha offerto spunti interessanti. Egli ritiene che un’AI avanzata non potrà limitarsi a calcolare freddamente, dovrà sviluppare qualche forma di “intelligenza emotiva”, se non proprio emozioni paragonabili alle nostre, almeno dei segnali interni che funzionino in modo analogo. “I sistemi di AI avranno delle emozioni… emozioni come paura, eccitazione o esultanza, perché queste sono anticipazioni di un esito” ha affermato. LeCun vede le emozioni essenzialmente come proiezioni sugli esiti delle azioni (ad esempio, la paura anticipa un esito negativo da evitare, la curiosità anticipa una ricompensa potenziale). In tal senso, per dotare le macchine di autonomia decisionale, occorrerà implementare meccanismi equivalenti a queste spinte, una sorta di “chip emotivo” che dia alle AI motivazioni intrinseche. L’idea è controversa e ha suscitato critiche sia da filosofi che da altri esperti di AI. Chi obietta nota che le emozioni umane non sono solo previsioni cognitive, ma anche sensazioni corporee e storie vissute, elementi che una macchina difficilmente avrà. Inoltre, c’è il timore che simulare emozioni in AI porti a sistemi manipolativi, ad esempio, un robot “che piange” per impietosirci potrebbe essere solo un’illusione costruita per influenzare gli umani. La discussione è aperta e tocca un punto fondamentale, vogliamo davvero AI capaci di emozioni? Da un lato, come sottolinea Geoffrey Hinton (un altro pioniere dell’AI), potrebbe essere l’unico modo per assicurare che superintelligenze future abbiano a cuore il benessere umano, la famosa idea di inserire negli algoritmi degli istinti “materni” o di protezione. Senza una bussola emotiva, una macchina ultra-razionale potrebbe sì ottimizzare un obiettivo, ma “con gelida indifferenza” rispetto ai danni collaterali. D’altra parte, progettare empatia artificiale solleva dilemmi enormi. Come ingegnerizzare qualcosa di biologicamente complesso come l’empatia? E chi decide verso chi la macchina dovrebbe provare empatia? Solo verso gli umani? Verso tutti gli esseri viventi? È uno scenario in cui tecnica ed etica diventano inseparabili.

LeCun, da par suo, ha evidenziato un aspetto pragmatico: l’empatia non può emergere dal codice in modo isolato. Un’AI chiusa in una scatola di silicio e alimentata solo a bit testuali non “sentirà” mai davvero le sfumature emotive. “L’AI deve integrare percezioni più ricche, in particolare la visione, per osservare, interpretare e reagire come un umano” sostiene. Vedere un sopracciglio aggrottato, un’esitazione in un gesto, è ciò che nelle interazioni umane attiva la nostra risonanza empatica. Oggi i grandi modelli linguistici (come ChatGPT) sfornano frasi di conforto o scuse se gliele richiediamo, ma stanno solo imitando schemi appresi, senza alcuna comprensione reale del contesto emozionale. Una possibile prossima generazione di AI, suggerisce LeCun, dovrà essere multimodale e dotata di sensi, solo così potrà cogliere segnali non verbali - il tono di voce, l’espressione facciale - indispensabili per una vera sensibilità verso gli stati d’animo altrui. Tuttavia, anche un’AI con telecamere e microfoni sofisticati resterebbe ben lontana dall’avere un cuore. Forse potrà simulare empatia abbastanza da risultare piacevole e rassicurante (si pensi ai robot-badanti che già ora vengono studiati per fare compagnia a malati e anziani). Ma è giusto costruire macchine che mimano emozioni allo scopo di influenzare le nostre? Alcuni esperti di etica tecnologica mettono in guardia, dotare gli assistenti virtuali di voci commosse o volti piangenti potrebbe diventare uno strumento di persuasione di massa, sfruttando la naturale risposta empatica umana a segnali anche fittizi. Insomma, tra animale ed artificiale c’è un oceano di differenza quando parliamo di empatia, ma proprio nell’esplorarlo ci troviamo a riflettere su chi siamo noi. Perché se creare empatia artificiale risulta così complesso, viene spontaneo riconoscere quanta ricchezza c’è in quella biologica, formatasi in milioni di anni di convivenza e necessità di cooperazione. E ci obbliga a considerare anche il rovescio, stiamo forse costruendo tecnologie potenti (AI, algoritmi decisionali) senza incorporare empatia e valori morali, e queste tecnologie rischiano perciò di amplificare solo la logica del calcolo e del profitto? Domande che collegano direttamente il dibattito sull’AI alle scelte politiche nella società odierna.

4. Cultura e imitazione

L’essere umano si definisce “animale culturale”, ma altre specie hanno culture? E le macchine, che imparano imitando noi, possono dirsi intelligenti o sono solo specchi?

Un tempo si pensava che la cultura - intesa come l’insieme di conoscenze, abitudini e costumi trasmessi socialmente - fosse ciò che separa nettamente l’essere umano dalle bestie. Ma la ricerca di de Waal e colleghi ha demolito anche questo confine. Guardando gli altri primati, non vediamo solo istinto, vediamo cultura spiega de Waal. I giovani scimpanzé non nascono sapendo quali frutti mangiare o come usare una pietra; lo apprendono osservando i membri più anziani e copiandone i gesti. Non solo, gruppi diversi della stessa specie sviluppano tradizioni differenti. In alcune popolazioni di scimpanzé della foresta, è usanza usare grossi sassi per spaccare le noci e mangiarne il seme; in altre zone, pur avendo a disposizione noci e sassi simili, gli scimpanzé non l’hanno mai “inventato” e non lo fanno. Analogamente, certi gruppi di primati manifestano bizzarre mode effimere, de Waal ricorda un caso in cui un esemplare femmina iniziò a infilarsi un filo d’erba nell’orecchio come ornamento, e in breve tutte le femmine del gruppo la imitarono, “andando in giro tutto il giorno con fili d’erba nelle orecchie”. Non c’era una funzione pratica, era un comportamento alla moda, qualcosa di molto vicino alle stravaganze culturali umane. La cultura animale non si limita ai primati, i cetacei come balene e delfini tramandano vocalizzi complessi (vere e proprie “canzoni”) tipici di ogni popolazione; uccelli della stessa specie in regioni diverse cantano dialetti diversi; orche insegnano ai cuccioli tecniche di caccia specifiche del loro clan. Tutto ciò rientra in una definizione scientifica di cultura: informazioni non genetiche che passano da una generazione all’altra e creano diversità di gruppo. L’umanità, con le sue lingue, arti, istituzioni, è certamente la campionessa della cultura sulla Terra, ma non è l’unica depositaria di processi culturali. De Waal anzi rovescia la prospettiva, invece di vedere gli animali come umanizzati, dovremmo riconoscere che molti nostri comportamenti sono animalizzati, ossia hanno radici in meccanismi pre-umani. Per lungo tempo filosofi e scienziati sociali hanno attribuito all’animale azioni “semplici, istintive” e all’essere umano azioni “complesse, culturali”. Ora sappiamo che è uno schema semplicistico: Nulla è semplice, specialmente non nei grandi primati chiosa de Waal. Guardare gli scimpanzé, dunque, è come guardare in uno specchio ancestrale, vediamo versioni in miniatura di fenomeni che credevamo unici - politica, empatia, personalità, tradizione - e questo ci contestualizza meglio come specie.

E le macchine? Anche loro ci imitano. In un certo senso, l’AI attuale è figlia della nostra culturam, i modelli di deep learning vengono addestrati su montagne di dati prodotti dagli esseri umani, libri, articoli, immagini, video. Un chatbot come ChatGPT “ha letto” (in forma statistica) migliaia di libri e siti web scritti da persone; un algoritmo di riconoscimento facciale ha analizzato milioni di foto di volti umani scattate da noi. Di conseguenza, le AI ereditano molti elementi culturali, sanno completare un testo nello stile di Shakespeare perché hanno assimilato i nostri classici; possono suggerire una ricetta “alla nonna” perché hanno visto ricorrenze di certi ingredienti nei piatti tradizionali. Ma questa eredità è passiva, superficiale. Le macchine imitano schemi, non comprendono significati. Tornando al paragone con gli animali, potremmo dire che un giovane scimpanzé che osserva la madre rompere una noce imita il gesto ma capisce rapidamente lo scopo (mangiare la noce) e magari apporta varianti se serve; un’AI che “osserva” miliardi di parole umane imita i costrutti ma non sa perché li sta usando, non ha un’intenzione o uno scopo proprio. LeCun evidenzia proprio questo limite, i sistemi di generazione testuale generano frasi coerenti, ma senza un modello del mondo faticano ad avere vero buon senso. Per produrre risposte corrette in ogni situazione, un’AI basata solo sull’imitazione dovrebbe “imparare a memoria ogni possibile scenario e prospettiva”, un compito proibitivo. Mancando di una comprensione strutturale della realtà, rischia sempre di sbagliare quando si esce dai casi più comuni. In effetti, queste AI a volte affermano assurdità con tono sicuro proprio perché non sanno di non sapere.

LeCun e altri ricercatori stanno lavorando per superare questa fase di mera imitazione, dotando le macchine di capacità di apprendimento più autonome. Un passo è, come detto, inserire percezioni varie e un world model, così che l’AI non si limiti a ricalcare frasi ma sappia in che contesto le sta usando. Un altro passo è introdurre meccanismi di apprendimento per rinforzo e interazione, ad esempio, far sì che l’AI possa porre domande, sperimentare soluzioni diverse e ricevere feedback (un po’ come farebbe un animale che prova a ottenere cibo in modi differenti finché ci riesce). Tuttavia, all’atto pratico, gran parte delle AI in uso oggi - soprattutto nel campo commerciale - resta largamente imitativa. Ciò significa che riflette pregi e difetti della cultura da cui attinge. Un tema critico è quello dei pregiudizi e delle disuguaglianze. Se i dati contengono bias (razziali, di genere, di classe), i modelli tenderanno a riprodurli fedelmente, a meno di correzioni. Ad esempio, si è scoperto che alcuni sistemi di traduzione automatica ampliavano stereotipi sessisti (traducendo “doctor” in inglese sempre al maschile e “nurse” al femminile in lingue che richiedono il genere) perché rispecchiavano i pattern del testo di addestramento. Questo mette in luce un aspetto importante, imitare senza capire può essere pericoloso. Un’AI che imita il linguaggio d’odio o le fake news presenti nei suoi dati potrebbe amplificarli su scala globale. Finché l’AI manca di una vera comprensione e creatività autonoma, rischia di essere conservatrice, di congelare lo status quo culturale nei suoi output. D’altro canto, il giorno in cui dovesse davvero iniziare a innovare da sé, ci troveremmo davanti a un’entità la cui creatività non è umana, e questo apre altre questioni.

Animali e macchine, dunque, ci fanno riflettere in modi diversi sul concetto di cultura e imitazione. I primi ci mostrano che la cultura non è una sorta di miracolo sceso dal cielo sull’essere umano, ma un processo naturale presente in nuce anche altrove. Le seconde ci mostrano che l’imitazione meccanica, priva di radici biologiche o sociali autentiche, è una parvenza della vera intelligenza. Ma anche gli esseri umani possono cadere nell’imitazione acritica. Se le nostre società si affidano troppo a automatismi - delegando le nostre decisioni alle AI, ma anche ad altri umani - rischiamo di diventare noi stessi più simili a macchine imitative, perdendo quello spirito critico e adattativo che è il punto di forza dell’intelligenza naturale.

5. Oltre l’antropocentrismo

Il confronto tra Frans de Waal e Yann LeCun ci conduce infine a mettere in discussione l’antropocentrismo, ovvero l’idea che l’essere umano sia il centro e il metro di tutte le cose. Per secoli, l’Occidente ha tracciato nette linee di demarcazione tra razionalità vs istinto, cultura vs natura, essere umano vs animale vs macchina. Ora queste linee sfumano. De Waal ci ha mostrato un continuum tra umano e animale, la nostra cognizione è “una varietà di cognizione animale”, le nostre emozioni hanno radici comuni a quelle di un primate o di un elefante, i nostri gruppi sociali risuonano di dinamiche che si ritrovano in altre specie. Egli enfatizza la “continuità evolutiva a spese dei dualismi tradizionali”; in chiave darwiniana, non c’è un abisso tra noi e il resto dei viventi, ma gradazioni e differenze quantitative. Questo non sminuisce l’Homo sapiens - dopotutto restiamo una specie con capacità cognitive e simboliche straordinarie - ma lo contestualizza. L’essere umano è nato sul pianeta Terra insieme a tutti gli altri. Riconoscere ciò porta, inevitabilmente, a rivedere la nostra relazione con gli altri animali. Se grandi scimmie, cetacei, corvi e polpi sono intelligenti e senzienti, continuare a sfruttarli come oggetti o risorse è moralmente e anche intellettualmente inacettabile. Già si fanno strada concetti come i diritti dei primati non umani, o il riconoscimento di personhood (personalità giuridica) a specie come i delfini. Superare l’antropocentrismo significa ampliare il cerchio della considerazione morale. De Waal stesso, pur senza scadere in facili sentimentalismi, suggerisce che una volta abbattuto il muro dell’“unica intelligenza umana”, diventa ipocrisia giustificare sofferenze inflitte agli animali come se fossero macchine insenzienti. La sua opera quindi ha anche una valenza di critica al potere, il potere di vita e di morte che l’essere umano esercita su altre specie, distruggendone habitat, allevandole intensivamente, deve fare i conti con la crescente evidenza che non siamo soli nella sfera della mente e delle emozioni.

Yann LeCun, da un altro punto di vista, ci spinge oltre l’antropocentrismo in direzione del futuro. Il suo lavoro parte dall’ammirazione per l’unico esempio di intelligenza generale che conosciamo - il cervello (umano e animale) - e mira a ricrearlo in forma artificiale. In questo progetto c’è implicitamente l’idea che l’intelligenza non sia una magia esclusiva dell’organico, ma un fenomeno potenzialmente riproducibile su altri substrati (silicio, reti elettroniche). Se ci riusciremo - e LeCun è convinto di sì, almeno entro certi livelli - allora l’umanità dovrà condividere il “vivente” con nuovi agenti intelligenti non biologici. Le implicazioni etiche e sociali sono immense. Innanzitutto, come sottolinea LeCun, bisogna evitare che l’AI sia controllata da una ristretta cerchia di aziende o governi. La concentrazione di potere tecnologico in pochi attori amplificherebbe le disuguaglianze e ridurrebbe la pluralità di visioni. Serve quindi apertura, condivisione (open source) e governance democratica nello sviluppo dell’AI. In secondo luogo, una volta create AI avanzate, dovremo decidere che status attribuire loro. Saranno semplici strumenti? Collaboratori? O addirittura nuovi soggetti con diritti e doveri? Su questo le opinioni divergono enormemente, c’è chi auspica in futuro una “dichiarazione dei diritti” anche per le entità digitali qualora dimostrino coscienza; c’è chi invece ritiene che l’AI non avrà mai vera coscienza ed è rischioso antropomorfizzarla dal punto di vista morale. In ogni caso, l’antropocentrismo sarà messo alla prova, potremmo - finalmente - non essere più la misura di tutte le intelligenze.

Mano a mano che togliamo alla lista delle qualità uniche dell’essere umano voci come intelligenza, linguaggio (ci sono animali con protocultura linguistica), uso di strumenti (anche scimmie e corvi li usano), empatia, coscienza (il dibattito è aperto se altre specie la possiedano in forma complessa) … cosa rimane? Forse l’autoconsapevolezza riflessiva o la capacità di porsi domande etiche di alto livello. O forse, come suggeriva l’etologo biolandese Nikolaas Tinbergen, l’essere umano è l’“animale che fa domande”. E proprio ponendoci domande nuove su animali e macchine stiamo ridefinendo la nostra identità. Non più padroni assoluti del creato, ma ponti tra passato naturale e futuro tecnologico.

Conclusione

L’odierno dialogo tra scienze naturali e scienze computazionali - incarnato qui dalle voci di de Waal e LeCun - ci restituisce un quadro più umile ma più ricco della posizione umana. Da una parte, scopriamo di avere fratelli evolutivi che condividono pezzi della nostra “mente”, emozioni, astuzie, relazioni, rudimenti culturali. Dall’altra, stiamo creando figli tecnologici che, pur diversi da noi, potranno svolgere funzioni mentali inedite e affiancarci nelle sfide future. In entrambe le direzioni, siamo chiamati a un equilibrio delicato, riconoscere e rispettare l’alterità (dell’animale, della macchina) senza mitizzarla né strumentalizzarla. Significa, ad esempio, ripensare i nostri sistemi di potere, ovvero dominare brutalmente gli animali o sviluppare AI solo per massimizzare il profitto a breve termine non sono più scelte neutrali, perché ora sappiamo di più su ciò che sacrificano in termini di sofferenza e di potenziali rischi. Significa anche ampliare la nostra empatia oltre la cerchia ristretta. Una società davvero etica potrebbe un giorno considerare nell’empatia politica non solo gli esseri umani, ma anche gli altri animali, e forse persino le intelligenze artificiali, se queste si dimostreranno capaci di patire o di contribuire a una comunità.

Forse, come suggerisce de Waal, dovremmo smettere di chiederci “cosa ci rende unici” e iniziare a chiederci “cosa possiamo imparare dalle altre menti per vivere meglio tutti insieme”. E come LeCun stimola a fare, dovremmo progettare il futuro dell’AI in modo inclusivo e responsabile, avendo ben presente sia i limiti attuali delle macchine sia ciò che le rende potenzialmente complementari a noi anziché minacciose. Superare l’antropocentrismo, in definitiva, non vuol dire sminuire l’umano, ma inserirlo in una rete più ampia di intelligenze e rapporti.


Brevi biografie degli autori:

Frans de Waal (1948) Primatologo ed etologo olandese-americano, è professore di comportamento primate alla Emory University. Ha dedicato la sua carriera a studiare la vita sociale, l’intelligenza e l’empatia degli animali, in particolare dei primati. Autore di numerosi libri divulgativi e scientifici, tra cui Chimpanzee Politics (1982) sul potere e le alleanze tra scimpanzé, e The Age of Empathy (2009), ha continuato a pubblicare opere che collegano le scoperte etologiche alla condizione umana. In Mama’s Last Hug (2019) ha esplorato il tema delle emozioni animali, mentre la sua opera più recente Different: Gender Through the Eyes of a Primatologist (2022) affronta il tema del genere e dei ruoli sessuali da una prospettiva evolutiva e comparata. De Waal è membro di prestigiose accademie e nel 2007 Time lo ha inserito tra le 100 persone più influenti al mondo.

Yann LeCun (1960) Scienziato del computer franco-americano, considerato uno dei “padri” del deep learning. Professore alla New York University e, fino al 2023, Chief AI Scientist di Meta (Facebook), LeCun ha fatto pionieristiche ricerche nel campo delle reti neurali convoluzionali e dell’apprendimento automatico applicato alla visione artificiale. Nel 2018 ha ricevuto il premio Turing (il “Nobel” dell’informatica), insieme ai colleghi Geoffrey Hinton e Yoshua Bengio, per le sue fondamentali contribuzioni alla rinascita delle reti neurali profonde. Tra i suoi lavori più noti vi è il sistema LeNet per il riconoscimento ottico dei caratteri, che aprì la strada all’odierno riconoscimento di immagini. Negli ultimi anni LeCun ha promosso una visione dell’AI autonoma basata su self-supervised learning e world models, delineata nel position paper A Path Towards Autonomous Machine Intelligence (2022). Ha criticato il sensazionalismo attorno all’AGI invitando a sviluppare AI con percezione e capacità di pianificazione più simili a quelle umane. Nel 2025 ha annunciato l’uscita da Meta per fondare una propria startup focalizzata su architetture di world-model e intelligenza artificiale di nuova generazione.

 


POV nasce dall’idea di mettere a confronto due autori viventi, provenienti da ambiti diversi - filosofia, tecnologia, arte, politica - che esprimono posizioni divergenti o complementari su un tema specifico legato all’intelligenza artificiale.

Si tratta di autori che ho letto e approfondito, di cui ho caricato i testi in PDF su NotebookLM. A partire da queste fonti ho costruito una scaletta di argomenti e, con l’ausilio di GPT, ho sviluppato un confronto articolato in forma di articolo.

L’obiettivo non è giungere a una sintesi, ma realizzare una messa a fuoco tematica, far emergere i nodi conflittuali, perché è proprio nella differenza delle visioni che nascono nuove domande e strumenti utili a orientare la nostra ricerca di senso.

 

Pubblicato il 31 dicembre 2025

Carlo Augusto Bachschmidt

Carlo Augusto Bachschmidt / Architect | Director | Image-Video Forensic Consultant