Go down

Paolo Benanti e Yuval Noah Harari: due visioni a confronto su etica, potere e responsabilità dell’essere umano

L’intelligenza artificiale è già un sistema di potere, decide cosa vediamo, come lavoriamo, quali informazioni circolano e quali vengono filtrate. Ma chi è responsabile di queste decisioni? Gli ingegneri che progettano gli algoritmi, le aziende che li controllano, gli Stati che li adottano, o una società che delega sempre più funzioni senza interrogarsi sulle conseguenze?
Paolo Benanti e Yuval Noah Harari affrontano queste criticità da prospettive molto diverse. Il primo, teologo morale e consulente istituzionale, insiste sulla necessità di un’etica della responsabilità che preservi l’umano dall’artificiale. Il secondo, narratore della storia del genere umano (e non solo), osserva l’AI come una forza che rischia di ridefinire potere, libertà e persino il concetto di soggetto.
Mettere a confronto Benanti e Harari significa andare oltre il dibattito tecnico sull’intelligenza artificiale e interrogarsi sul tipo di società che stiamo costruendo. Una società che utilizza la tecnologia come strumento, assumendosi la responsabilità delle decisioni, oppure una società che accetta di essere governata da soggetti privati, rinunciando progressivamente alla propria capacità di scelta?

1. Che cos’è l’AI?

L’intelligenza artificiale viene spesso descritta come uno strumento potente ma in fondo neutro. Una tecnologia che esegue compiti, ottimizza processi, assiste decisioni. Eppure, osservata nel suo funzionamento concreto, l’AI appare sempre meno come un semplice mezzo e sempre più come un dispositivo che orienta scelte collettive, stabilisce priorità, filtra informazioni, suggerisce comportamenti. Comprenderne la sua funzione non è quindi un esercizio teorico, ma il primo vero nodo etico e politico.

Paolo Benanti parte da una presa di distanza netta dall’idea di neutralità tecnologica. Per lui l’algoritmo non è mai un’entità astratta, ma sempre il risultato di decisioni umane, di visioni del mondo incorporate nel codice e negli obiettivi di ottimizzazione. In questa prospettiva, il rischio è quello dell’algocrazia, un trasferimento progressivo e silenzioso del potere decisionale a sistemi automatici che non possono essere chiamati a rispondere delle conseguenze delle loro azioni. È qui che si inserisce la proposta di un’algoretica, un’etica preventiva e progettuale, che non interviene a posteriori per correggere danni, ma accompagna fin dall’inizio la costruzione dei sistemi, rendendo esplicite le responsabilità umane che li attraversano.

Yuval Noah Harari adotta uno sguardo diverso, più distaccato. In 21 lezioni per il XXI secolo l’AI appare come una nuova infrastruttura cognitiva globale, capace di incidere sui comportamenti individuali e collettivi attraverso l’analisi dei dati e la previsione statistica. Il punto non è solo cosa le macchine sanno fare, ma chi controlla i flussi informativi e biometrici da cui esse apprendono. In questo scenario, il potere si sposta da chi costruisce narrazioni condivise a chi possiede la capacità di anticipare, orientare e persino “hackerare” le decisioni umane. L’AI è così sopratutto un amplificatore di asimmetrie già esistenti, economiche, politiche e cognitive.

Le differenze tra Benanti e Harari sono evidenti. Il primo insiste sulla responsabilità morale e progettuale, il secondo mette a fuoco la trasformazione sistemica dei rapporti di potere. Ma la convergenza è altrettanto chiara, entrambi rifiutano l’illusione della neutralità tecnologica. L’AI è un prodotto storico, e proprio per questo politicamente contendibile.

2. Etica e antropologia

Ogni tecnologia incorpora, spesso in modo implicito, una certa idea di essere umano. Simulando funzioni cognitive un tempo considerate distintivamente umane, mette in discussione non solo cosa facciamo, ma chi siamo.

Per Paolo Benanti, più l’AI sembra capace di decidere, prevedere, generare linguaggio o immagini, più emerge la necessità di interrogarsi su ciò che non può essere ridotto a calcolo. L’umano, nella sua prospettiva, non coincide con la performance cognitiva, ma con una trama di relazioni, di responsabilità assunte, di vulnerabilità condivisa. L’etica serve a ricordare che delegare una decisione non equivale mai a delegare la responsabilità. È in questa differenza che Benanti colloca una soglia dell’umano da non oltrepassare.

Yuval Noah Harari adotta uno sguardo più freddo, volutamente disincantato. In Sapiens e Homo Deus descrive l’essere umano come un sistema biologico, il cui comportamento è il risultato di processi algoritmici naturali. In questa cornice, l’AI rappresenta una continuità tecnologica. Il problema, per Harari, non è tanto stabilire cosa renda l’uomo “speciale”, quanto comprendere le conseguenze politiche di questa visione. Se accettiamo che desideri, scelte e emozioni siano decodificabili e prevedibili, allora il vero potere non risiede più nelle istituzioni, ma in chi controlla i dati e i modelli che li interpretano.

Qui emerge una divergenza netta. Benanti difende una centralità etica dell’umano, fondata sulla responsabilità e sulla relazione; Harari ne destabilizza la centralità tradizionale, mostrando quanto essa sia già stata erosa da una lettura algoritmica della vita. Eppure, entrambi riconoscono che l’intelligenza artificiale segna un passaggio antropologico, non perché diventino umane, ma perché costringono gli esseri umani a esplicitare che cosa intendono essere.

3. Potere, governance e responsabilità politica

L’intelligenza artificiale concentra potere economico, perché richiede infrastrutture costose e capitali enormi; potere politico, perché orienta decisioni pubbliche e amministrative; potere simbolico, perché struttura ciò che è visibile, dicibile e credibile nello spazio pubblico.

Paolo Benanti affronta questo nodo partendo da una constatazione netta, senza regole, l’AI non democratizza, ma accentua le disuguaglianze di potere. La retorica dell’innovazione come forza spontaneamente emancipatrice, secondo Benanti, ha già mostrato i suoi limiti con le piattaforme digitali. L’AI rischia di fare un passo ulteriore, non solo mediare relazioni e informazioni, ma sostituire processi decisionali, spesso in modo opaco. Da qui l’insistenza sulla necessità di una governance pubblica che non si limiti a rincorrere il mercato ma ne stabilisca confini, responsabilità e finalità. L’AI Act europeo, così come i documenti promossi in ambito vaticano, vengono letti in questa chiave, come tentativi imperfetti ma necessari di riaffermare un principio semplice, ovvero che la tecnica deve restare inscritta in un orizzonte politico e morale.

Harari, al contrario, guarda alla stessa scena con maggiore scetticismo. In 21 lezioni per il XXI secolo il problema non è tanto l’assenza di norme, quanto il divario strutturale tra la velocità dello sviluppo tecnologico e la lentezza delle istituzioni democratiche. Gli Stati nazionali, costruiti per governare territori e popolazioni, faticano a esercitare sovranità su flussi globali di dati, algoritmi e capitale. In questo contesto, avverte Harari, il rischio non è solo un cattivo uso dell’AI, ma una progressiva irrilevanza delle decisioni democratiche, svuotate di efficacia da sistemi che anticipano, orientano e condizionano i comportamenti prima ancora che la politica possa intervenire.

Per Benanti, la regolazione è un argine possibile e necessario, non risolve tutto, ma impedisce che il potere algoritmico diventi incontestabile. Per Harari, lo stesso argine rischia di essere costruito quando il fiume ha già cambiato corso. Entrambi riconoscono che lasciare l’AI alla sola logica del mercato o dell’efficienza tecnica significa rinunciare, di fatto, a una parte della sovranità democratica. La questione, allora, non è solo se una governance democratica dell’AI sia ancora possibile, ma a quali condizioni.

4. Libertà, controllo e manipolazione

L’intelligenza artificiale viene spesso presentata come una tecnologia di supporto. Ma il confine tra supporto e manipolazione non è tecnico, ma politico e culturale.

Paolo Benanti insiste sul fatto che l’AI vada frenata non per ostilità verso la tecnologia, ma per difendere la capacità umana di scegliere. L’automazione non produce solo efficienza, ma dipendenza, perché solleva l’essere umano dalla fatica della decisione. “Restare sapiens” significa allora preservare uno spazio di responsabilità personale, che nessun algoritmo può assumere al nostro posto.

Yuval Noah Harari guarda allo stesso fenomeno ma il problema non è soltanto la delega, ma la trasformazione strutturale della libertà. Sistemi capaci di analizzare enormi quantità di dati comportamentali, emotivi e biometrici non si limitano a prevedere ciò che faremo, imparano a orientarlo. In questo scenario, la persuasione politica tradizionale rischia di essere sostituita da una forma di ingegneria comportamentale, invisibile e personalizzata, che agisce prima ancora che il soggetto formuli una scelta consapevole. Non si tratta più di convincere, ma di anticipare e modellare.

La divergenza tra Benanti e Harari è evidente. Il primo mantiene una fiducia nella possibilità di educare, regolamentare, porre limiti condivisi. Il secondo mette in guardia da un rischio sistemico, una libertà svuotata dall’interno, non soppressa con la forza, ma resa irrilevante dall’efficacia predittiva delle macchine.

5. Responsabilità futura: chi risponde degli effetti dell’AI?

Quando una decisione presa da un sistema di intelligenza artificiale provoca un danno, la domanda è sempre la stessa, chi è responsabile? Il rischio, oggi, è che la responsabilità si dissolva lungo la filiera tecnologica. L’algoritmo diventa un comodo alibi, “ha deciso il sistema”, “è un errore tecnico”, “il modello ha appreso dai dati”.

Per Benanti una macchina non può rispondere moralmente delle conseguenze delle proprie azioni. Per questo l’etica non va intesa come un correttivo a posteriori, ma come un principio di progettazione e di governo, serve a mantenere tracciabile la catena delle decisioni. Senza questa catena, l’automazione rischia di trasformarsi in deresponsabilizzazione strutturale.

Per Harari non è solo l’assenza di un responsabile formale, ma l’emergere di una irresponsabilità sistemica. In un mondo governato da sistemi complessi e opachi, nessuno “decide davvero”, le scelte sono il risultato di modelli predittivi, incentivi economici e dinamiche automatiche che nessun attore controlla interamente. Eppure, gli effetti sono reali e ricadono sulle vite delle persone, spesso senza possibilità di contestazione o comprensione.

Benanti continua a cercare un punto di ancoraggio normativo in cui la responsabilità possa essere ricostruita e assunta. Harari, invece, descrive un mondo in cui questo ancoraggio rischia di saltare, perché la complessità tecnologica supera la capacità delle istituzioni e delle democrazie di attribuire colpa, merito e decisione.

Conclusione

Paolo Benanti e Yuval Noah Harari osservano l’intelligenza artificiale a partire da una consapevolezza comune, non siamo di fronte a una semplice innovazione tecnologica, ma a un passaggio che tocca il modo in cui le società decidono, si organizzano e attribuiscono valore alle scelte umane. Da qui in poi, però, i loro percorsi divergono.

La differenza tra i due non è tanto negli obiettivi quanto nella postura. Benanti prova a tenere aperto lo spazio della regolazione e della scelta consapevole. Harari ci avverte che quello spazio rischia di chiudersi rapidamente se non affrontiamo il nodo politico del potere. La sfida, oggi, non è scegliere tra etica e critica, ma riuscire a tenerle insieme, costruire regole senza perdere lucidità, immaginare limiti senza ignorare le forze che li erodono. In questo equilibrio fragile si gioca il futuro dell’umano nell’epoca dell’AI.

    POV nasce dall’idea di mettere a confronto due autori viventi, provenienti da ambiti diversi - filosofia, tecnologia, arte, politica - che esprimono posizioni divergenti o complementari su un tema specifico legato all’intelligenza artificiale.

    Si tratta di autori che ho letto e approfondito, di cui ho caricato i testi in PDF su NotebookLM. A partire da queste fonti ho costruito una scaletta di argomenti e, con l’ausilio di GPT, ho sviluppato un confronto articolato in forma di articolo.

    L’obiettivo non è giungere a una sintesi, ma realizzare una messa a fuoco tematica, far emergere i nodi conflittuali, perché è proprio nella differenza delle visioni che nascono nuove domande e strumenti utili a orientare la nostra ricerca di senso.

     

    Pubblicato il 16 dicembre 2025

    Carlo Augusto Bachschmidt

    Carlo Augusto Bachschmidt / Architect | Director | Image-Video Forensic Consultant