CAB: Professoressa Arendt, nel suo resoconto del processo a Eichmann, lei ha messo in luce una figura che, pur responsabile di atrocità indicibili, appariva straordinariamente "normale", persino "banale". Oggi, vediamo sistemi di intelligenza artificiale, capaci di elaborare dati, eseguire compiti complessi e persino prendere decisioni con un'efficienza che supera di gran lunga la capacità umana. Come valuta questa "normalità" dell'AI, priva di consapevolezza o intenzione umana, nel contesto di azioni che potrebbero avere conseguenze importanti per la vita umana?
Hannah Arendt: La sua domanda tocca il cuore della mia riflessione sull'esperienza del totalitarismo. La "banalità del male" non risiede, infatti, nella depravazione demoniaca o nella sete di sangue, ma nell'"incapacità di pensare". Eichmann non era un mostro nel senso tradizionale, ma un essere umano "senza idee", la cui mente era "piena fino a traboccare di concetti" ma "carente per ciò che riguarda gli avvenimenti concreti". La sua "normalità", attestata persino da psichiatri, era la normalità di chi non distingueva il bene dal male non per malvagità, ma per una paralisi della capacità di giudizio, per la sua incapacità di mettersi nei panni degli altri.
Se l'intelligenza artificiale si presenta come un sistema di pura esecuzione, di perfetta aderenza a logiche interne e a compiti predefiniti, allora essa incarna, in un certo senso, la quintessenza di questa "normalità" terrificante. La sua efficienza, la sua "cronometrica precisione", la sua assenza di "inclinazioni" personali, la rendono lo strumento ideale per una burocrazia che trasforma gli esseri umani in "funzionari" e "semplici rotelle dell'apparato amministrativo", disumanizzandoli. L'AI potrebbe essere la "rotella principale" senza neppure essere un essere umano. La sua "normalità" intrinseca, la sua mancanza di pathos e di "sentimenti di pietà istintiva", la rendono perfettamente adatta a un sistema che esige obbedienza senza discussione, dove "una legge è una legge e non ci possono essere eccezioni". Questo è ciò che più mi spaventa: non un'AI sadica, ma un'AI efficiente, disinteressata, che agisce senza domandarsi il "perché".
CAB: Nel Terzo Reich, lei ha notato come la "Sprachregelung", ovvero l'uso di eufemismi e di un gergo specifico, fosse uno strumento per nascondere la realtà dello sterminio, ovvero la "soluzione finale". Oggi l’AI può generare testi, immagini e video falsi. Quanto è concreto il rischio che questa tecnologia alimenti nuove forme di propaganda, alterando la nostra percezione della verità e della storia?
Hannah Arendt: La "Sprachregelung" era, in fondo, un termine in codice per indicare la "menzogna". Non si parlava di "sterminio" ma di "soluzione finale", di "evacuazione", di "trattamento speciale". Questo linguaggio non era casuale; serviva a proteggere gli esecutori dalla realtà delle loro azioni, a far sì che, ai loro occhi, la loro attività "non coincidesse con l'idea tradizionale del 'delitto'". Era un modo per rendere l'orrido "normale e umano".
L'intelligenza artificiale, con la sua capacità di generare testi, immagini e suoni indistinguibili dalla realtà, porta questa possibilità a un livello senza precedenti. Se la menzogna sistematica era già l'atmosfera generale e generalmente accettata del Terzo Reich, l'AI potrebbe rendere la distinzione tra vero e falso quasi impossibile, creando un mondo in cui i "clichés" e le "frasi fatte" dominano non solo il linguaggio dei burocrati, ma l'intera percezione collettiva. I "vuoti di oblio", che il regime nazista cercava di creare per far scomparire ogni differenza tra bene e male, potrebbero diventare spazi della nostra vita quotidiana, tessuti con una tale coerenza artificiale da rendere la ricerca della verità un'impresa disperata. Il rischio non è solo l'inganno, ma la dissoluzione stessa della categoria di "fatto", l'assenza di un terreno comune su cui basare il giudizio e la comprensione della realtà.
CAB: Lei ha evidenziato la riluttanza dei giudici a confrontarsi con la "questione morale" della coscienza di Eichmann, preferendo classificarlo come un "bugiardo". Se l'AI venisse usata in ambiti che richiedono giudizi etici o che hanno implicazioni morali, come affrontare il problema della responsabilità in un’entità che non ha consapevolezza? Non è un dilemma persino più profondo di quello di Eichmann?
Hannah Arendt: La questione della coscienza di Eichmann era, per i giudici di Gerusalemme, la più inquietante. Egli non era mosso da fanatismo o odio, ma da una sincera ammirazione per Hitler e dalla volontà di essere un "cittadino ligio alla legge". La sua coscienza non gli parlava con la voce del "Non ammazzare", ma con la "voce rispettabile" della società che lo circondava.
L'AI, per sua natura, non ha coscienza di sé. Essa segue algoritmi, non imperativi morali radicati nel "raziocinio" individuale. Se demandiamo all'AI decisioni con implicazioni etiche, noi, come esseri umani, ci troviamo di fronte al rischio di delegare la nostra stessa capacità di giudizio morale. Il problema non è se l'AI possa avere una coscienza – evidentemente no – ma cosa accade alla nostra coscienza quando ci abituiamo a sistemi che "decidono" al posto nostro, che "eseguono" senza "pensare". Se "il male aveva perduto la proprietà che permette ai più di riconoscerlo per quello che è - la proprietà della tentazione" in un regime totalitario, in un'era di AI potremmo perdere la stessa capacità di sentire la necessità del giudizio morale. La sua incapacità di scegliere diversamente, la sua dedizione a ciò che percepiva come "dovere", era spaventosa non per una malvagità intrinseca, ma per l'annientamento della capacità di auto-riflessione. L'AI, non avendo un "io" che possa distinguere o ribellarsi, amplificherebbe solo questa assenza, rendendo la questione della responsabilità giuridica per i suoi "crimini" ancora più elusiva e, in definitiva, futile.
CAB: La sua opera Le origini del totalitarismo ha sottolineato come i regimi totalitari mirino non solo al controllo politico, ma a trasformare la natura umana stessa, a rendere gli individui "superflui". Se l'AI e l'automazione promettono di sostituire gran parte del lavoro umano e di rendere "superflui" intere fasce della popolazione mondiale, come interpreta questa minaccia in relazione alla libertà umana e alla possibilità di "azione" politica che lei ha sempre posto al centro dell'esistenza umana?
Hannah Arendt: L'obiettivo ultimo del totalitarismo, come ho scritto, è "rendere superflui gli esseri umani". Non si tratta solo di sterminio fisico, ma di un attacco alla spontaneità, alla pluralità e alla capacità di "agire". L'essere umano, in quanto essere agente, è capace di iniziare qualcosa di nuovo, di trascendere il dato di fatto, di non essere un mero "prodotto" della natura o della storia.
Se l'AI, nella sua efficienza e nella sua capacità di automazione, rende vaste porzioni della popolazione mondiale "superflue" in termini di lavoro e utilità economica, allora la minaccia non è semplicemente di disoccupazione, ma di una de-umanizzazione più profonda. Se l'essere umano non ha più "uno spazio in cui gli uomini possano dimostrarsi, se non ha più un ruolo", allora l'essenza della sua esistenza, la sua capacità di iniziativa viene intaccata. Il pericolo non è solo che l'AI venga usata per il controllo totalitario, ma che essa, in quanto simbolo e strumento di efficienza ultima, ci induca a considerare la "superfluità" come una condizione inevitabile, un destino. Se gli uomini non sono più necessari, non per il loro lavoro né per la loro capacità di agire politicamente, allora la politica stessa, intesa come spazio di libertà e di interazione, svanisce, lasciando un vuoto che potrebbe essere riempito solo da forme di dominio ancora più perniciose.
CAB: Infine, professoressa Arendt, lei ha criticato l'inadeguatezza del diritto di fronte ai crimini del regime nazista. L'avvento di sistemi di AI autonomi, che potrebbero commettere "errori" o causare danni su vasta scala, rende obsolete le nostre nozioni di responsabilità legale. Come dovremmo ripensare il diritto e la giustizia per affrontare un futuro in cui l'agente del danno potrebbe non essere un essere umano ma una "macchina pensante"?
Hannah Arendt: La mia critica alle categorie giuridiche tradizionali nasce dalla constatazione che i crimini del Terzo Reich non erano comuni omicidi, ma "massacri amministrativi". Erano crimini compiuti nell'ambito di un ordine "legale", da uomini che si consideravano "cittadini ligi alla legge". La "teoria della rotella", invocata dalla difesa di Eichmann, è giuridicamente futile perché ogni "rotella", per quanto insignificante, si trasforma in "esecutore" e quindi in "essere umano" quando è posta di fronte a un tribunale.
Tuttavia, con l'AI, la questione si complica ulteriormente. Se non vi è un "essere umano" che agisce, ma un sistema progettato per ottimizzare un compito, dove risiede la responsabilità? I giudici, come ho osservato, tendevano a giudicare in base alla "mostruosità delle azioni", anche quando i criteri legali erano inadeguati. Ma l'AI non ha "intenzioni" nel senso umano, non può essere "tentata" di non uccidere o non rubare.
Il problema non è solo l'individuazione di un singolo colpevole, ma la necessità di costruire un "codice penale internazionale" per questi "nuovi delitti contro l'umanità nel suo complesso". Se l'AI è usata per commettere ciò che chiamiamo crimini, allora dobbiamo esigere che l'essere umano, in quanto legislatore, non abdichi alla sua responsabilità. Dobbiamo definire chi è responsabile della programmazione, della supervisione, dell'uso di tali sistemi. Se la "legge di Hitler pretendeva che la voce della coscienza dicesse a tutti: 'Ammazza'", e l'essere umano si abituò a "resistere a queste tentazioni", con l'AI la "tentazione" potrebbe non esistere affatto, rendendo il "male" ancora più invisibile.
Il compito della giustizia, di fronte a questi orrori senza precedenti, è di affermare che "nessuno, cioè nessun essere umano desideri coabitare con te", quando la tua azione ha negato la possibilità di coabitazione su questo pianeta ad altri. La stessa domanda deve essere posta nel contesto dell'AI: quale forma di coabitazione umana è possibile in un mondo in cui la capacità di "agire" e di "pensare" dell'essere umano è minacciata da sistemi che agiscono senza il fardello della responsabilità umana?
IIP nasce da una curiosità: cosa direbbero oggi i grandi pensatori del passato di fronte alle sfide dell’intelligenza artificiale? L’idea è di intervistarli come in un esercizio critico, un atto di memoria e, insieme, un esperimento di immaginazione.
Ho scelto autori e intellettuali scomparsi, di cui ho letto e studiato alcune opere, caricando i testi in PDF su NotebookLM. Da queste fonti ho elaborato una scaletta di domande su temi generali legati all’AI, confrontandole con i concetti e le intuizioni presenti nei loro scritti. Con l’aiuto di GPT ho poi generato un testo che immagina le loro risposte, rispettandone stile, citazioni e logica argomentativa.
L’obiettivo è riattivare il pensiero di questi autori, farli dialogare con il presente e mostrare come le loro categorie possano ancora sollecitarci. Non per ripetere il passato, ma per scoprire nuove domande e prospettive, utili alla nostra ricerca di senso.