Quando mi sono trovato per la prima volta davanti a questa esperienza, ho avvertito una scintilla di riconoscimento letterario profondo. Ho sentito l’eco di una frase scritta più di un secolo fa, che suona oggi come una notifica push: “Qualcuno doveva aver calunniato Josef K., perché senza che avesse fatto nulla di male, una mattina fu arrestato.”
Franz Kafka, con quella lucidità visionaria che appartiene soltanto ai grandi, aveva già scritto la nostra storia digitale. Il Processo, pubblicato postumo nel 1925, non è solo un capolavoro della letteratura novecentesca: è il manuale d’istruzioni distopico dell’era dell’Intelligenza Artificiale. E questa non è un’iperbole retorica, ma una constatazione che mi turba ogni volta che la esamino con attenzione.
La Legge è nei Dati, e Nessuno Può Leggerla
Il cuore pulsante dell’angoscia kafkiana, quello che trasforma il romanzo in qualcosa di universalmente riconoscibile attraverso i decenni, risiede nell’impossibilità strutturale di accedere alla Legge.
Josef K. passa l’intera durata del romanzo tentando disperatamente di capire di cosa sia accusato, di trovare il testo del suo reato, di guardare negli occhi il suo accusatore. Nessuno può aiutarlo, non perché siano cattivi, ma perché il sistema è stato progettato in modo tale che la comprensione sia strutturalmente impossibile. La colpevolezza è già presupposta prima ancora che la prova esista.
Questo meccanismo trova oggi un corrispettivo quasi perfetto nel dibattito sulla spiegabilità degli algoritmi, uno dei temi più urgenti e sottovalutati della nostra contemporaneità digitale.
Quando un sistema di intelligenza artificiale nega un mutuo a una famiglia, sospende l’account di un giornalista, inserisce un cittadino in una lista di sorveglianza o riduce il punteggio di credito sociale di un individuo, raramente viene fornita una spiegazione che un essere umano possa comprendere, valutare e contestare.
La decisione emerge da miliardi di calcoli matematici, da pesi e parametri accumulati attraverso processi di apprendimento automatico che nemmeno i programmatori che li hanno creati riescono a ricostruire passo dopo passo. Il sistema funziona, produce risultati, ma il suo funzionamento interno è una scatola nera, una black box che nessuno può aprire con gli strumenti della ragione ordinaria.
Penso alla celebre parabola Davanti alla Legge, quella storia breve che Kafka inserisce nel mezzo del romanzo come un cuore narrativo incandescente: un contadino arriva davanti alla porta della Legge, che è aperta e accessibile in linea di principio, ma il guardiano gli impedisce di entrare. L’uomo aspetta per anni, tutta la vita, finché poco prima di morire scopre che quella porta era aperta soltanto per lui, e che ora verrà chiusa per sempre. La Legge era raggiungibile, ma è stata resa irraggiungibile da un sistema che si è frapposto.
Ecco cosa sono diventati gli algoritmi nella nostra epoca: custodi kafkiani perfetti, onniscienti nei risultati che producono, ma ermeticamente oscuri nelle motivazioni che li generano. Siamo lì, davanti alla porta aperta, e non ci è permesso entrare a capire perché.
L’Assurdità della Burocrazia Algoritmica: Quando la Macchina Automatizza l’Errore
Una delle intuizioni più devastanti di Kafka è che la sua burocrazia non è malvagia: è semplicemente indifferente. Il sistema burocratico del Tribunale non perseguita Josef K. con sadismo consapevole, ma lo consuma con la sua inesorabile efficienza procedurale. È un meccanismo che gira a vuoto, che si autoalimenta, che produce documentazione su documentazione senza mai avvicinarsi alla verità o alla giustizia. E questa indifferenza sistemica è, per certi versi, più terrificante della malvagità esplicita.
L’intelligenza artificiale rischia di replicare questo schema nella sua forma più pura e tecnologicamente sofisticata: l’automazione dell’errore. Quando un sistema automatizzato commette un errore, lo fa in modo efficiente, rapido, scalabile e tendenzialmente invisibile. Non c’è un funzionario annoiato che firma distrattamente una pratica: c’è un modello che processa migliaia di casi al secondo, applicando le stesse logiche distorte a ogni singola persona con la precisione matematica di una macchina industriale.
Esiste già oggi, e non è fantascienza, il caso degli algoritmi utilizzati in alcuni stati americani per determinare la concessione della libertà vigilata ai detenuti. Il sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) è stato analizzato da ProPublica nel 2016, e i risultati erano agghiaccianti: gli afroamericani venivano classificati come “ad alto rischio” di recidiva quasi il doppio delle volte rispetto ai bianchi, anche a parità di storia criminale.
L’algoritmo non era programmato per essere razzista, ma era stato addestrato su dati storici che riflettevano decenni di discriminazioni strutturali nel sistema giudiziario americano. La macchina aveva imparato il pregiudizio dall’umanità, e poi lo aveva restituito con la sanzione della matematica.
A chi ci si rivolge, in un caso del genere? Chi è il giudice a cui appellarsi quando il giudice è un modello di machine learning? Questa è la domanda che Kafka poneva nel suo romanzo, e che oggi risuona con una concretezza che fa paura. Josef K. cerca disperatamente un avvocato che possa aiutarlo, ma scopre che anche gli avvocati sono inglobati nel sistema, che conoscono le sue procedure superficiali ma non la sua logica profonda.
Quando oggi tentiamo di contestare una decisione algoritmica, ci troviamo spesso immersi in un loop di ticket di assistenza, risposte automatiche, numeri di protocollo che rimandano ad altri numeri di protocollo, senza mai riuscire a raggiungere un essere umano che abbia la facoltà di dire “ho sbagliato” e di correggere l’errore.
La Colpa della Differenza: Essere un Pattern, Non una Persona
C’è un aspetto di Il Processo che trovo particolarmente inquietante nella sua attualità, e che raramente viene sottolineato nelle analisi tradizionali del romanzo. Josef K. non è accusato per qualcosa che ha fatto: è accusato per quello che è, o più precisamente per come il sistema lo percepisce e lo classifica. Il reato non viene mai specificato perché il sistema non ragiona in termini di reati specifici, ma in termini di categorie, profili, pattern di comportamento che si conformano o si discostano dalla norma attesa.
Il Machine Learning funziona esattamente secondo questa logica. Un algoritmo addestrato su grandi dataset non giudica le singole azioni di una persona, ma riconosce dei pattern statistici e li confronta con altri pattern che il sistema ha imparato ad associare a certi esiti. Se il tuo profilo digitale, nella somma delle sue migliaia di micro-variabili, assomiglia abbastanza al profilo di qualcuno che in passato ha compiuto un’azione rischiosa o indesiderata, tu vieni classificato come “a rischio” prima ancora di aver fatto nulla.
Questo è, né più né meno, il pregiudizio elevato alla dignità matematica. È la discriminazione che si veste da oggettività scientifica. Kafka aveva intuito, con la sua straordinaria sensibilità di scrittore vissuto al confine tra culture e identità diverse, che il potere moderno non ha bisogno di prove concrete per condannare qualcuno: ha soltanto bisogno di una classificazione convincente. E l’intelligenza artificiale è lo strumento più potente mai costruito dall’umanità per classificare, categorizzare e quindi, potenzialmente, per processare.
Penso spesso a questo quando lavoro con le persone nell’ambito della formazione digitale: quante decisioni che influenzano profondamente le nostre vite vengono già prese da sistemi automatizzati che non ci vedono come individui, ma come insiemi di attributi statistici? Il creditore che ci nega un prestito, la piattaforma che ci mostra certi contenuti invece di altri, il recruiter automatizzato che scarta il nostro curriculum prima ancora che un essere umano lo abbia letto, l’assicuratore che calcola il nostro premio sulla base di variabili che non conosciamo e non abbiamo scelto.
La Fine della Dignità: Quando l’Uomo Diventa un Dato
La scena conclusiva di Il Processo è una delle più strazianti di tutta la letteratura europea. Josef K. viene condotto al macello “come un cane”, eseguendo quasi volontariamente la propria condanna, senza comprendere ancora il motivo della sua morte, senza aver mai ricevuto una spiegazione. L’ultima vittima del sistema kafkiano non è la libertà, non è la giustizia, non è nemmeno la vita: è la dignità umana, quella capacità di esistere come soggetto autonomo e comprensibile a sé stesso che il sistema burocratico ha lentamente ma inesorabilmente demolito.
L’aspetto più inquietante dell’intelligenza artificiale, quello che mi turba profondamente come umanista digitale, non è il timore fantascientifico che le macchine diventino più intelligenti degli esseri umani e ci dominino con consapevolezza. Questo scenario mi preoccupa relativamente poco, perché presuppone un’agentività e un’intenzionalità che le macchine attuali non posseggono. Ciò che mi preoccupa davvero è qualcosa di molto più sottile e quindi molto più pericoloso: la possibilità che l’uomo venga trattato come un dato.
Quando deleghiamo decisioni etiche, morali o giuridiche a un sistema automatizzato, stiamo effettivamente costruendo quel Tribunale invisibile di cui Kafka aveva paura. Stiamo costruendo un mondo dove l’efficienza del processo conta più della verità del risultato, dove l’opacità del codice sorgente sostituisce la trasparenza della legge scritta, dove la velocità dell’elaborazione informatica prende il posto della lentezza necessaria della deliberazione umana.
Un esempio concreto che mi è capitato di osservare da vicino: i sistemi di content moderation delle grandi piattaforme social rimuovono ogni giorno milioni di contenuti in modo automatizzato. Alcune di queste rimozioni sono corrette e necessarie. Ma una parte significativa colpisce contenuti perfettamente legittimi, spesso prodotti da attivisti, giornalisti, artisti o semplicemente cittadini che esprimono opinioni scomode. Il tasso di errore, su scala globale, si traduce in decine di milioni di voci umane silenziate ogni anno da una macchina che non può comprendere il contesto, l’ironia, la metafora, la storia culturale che dà senso a quelle parole.
Verso un Umanesimo Digitale dell’Accountability
Kafka non offrì soluzioni nel suo romanzo, soltanto una diagnosi lucida, dolorosa e profondamente onesta di una malattia che stava appena emergendo nella sua forma moderna. Ma noi, che viviamo un secolo dopo e che abbiamo il vantaggio di riconoscere i sintomi prima che diventino terminali, possiamo permetterci il lusso di andare oltre la diagnosi.
Rileggere Il Processo nell’era dell’Intelligenza Artificiale non è un esercizio nostalgico di letteratura comparata, ma un atto politico e civile. La lotta di Josef K. è la nostra lotta: è la lotta per la trasparenza algoritmica, per il diritto inalienabile di ricevere una spiegazione comprensibile quando una macchina prende una decisione che ci riguarda, per il diritto di guardare in faccia il nostro accusatore anche quando quell’accusatore ha la forma di un modello matematico.
Come umanista digitale, sono convinto che la risposta non stia nel rifiuto della tecnologia, che sarebbe tanto ingenuo quanto inutile, ma nella costruzione di un ecosistema digitale che mantenga al centro la persona umana come soggetto, non come oggetto. Questo significa battersi concretamente per alcune cose precise: il diritto alla spiegazione delle decisioni automatizzate, sancito in parte dal GDPR europeo ma ancora largamente inapplicato nella sua sostanza profonda; la garanzia che dietro ogni decisione algoritmica significativa ci sia sempre un essere umano responsabile e identificabile; la promozione di sistemi di AI audit indipendenti che verifichino i bias e gli errori sistematici dei modelli prima che questi vengano dispiegati su larga scala.
La sfida della nostra generazione, come la vedo io, non è fermare il progresso tecnologico, ma impedire che il progresso si trasformi in un Tribunale kafkiano invisibile e onnipresente. Dobbiamo pretendere che l’algoritmo sia spiegabile, che la macchina rimanga uno strumento nelle mani dell’uomo e non il contrario, che la logica oscura del codice non prenda mai il posto della luce della ragione umana.
Altrimenti, rischiamo davvero di svegliarci una mattina, come Josef K., accusati da un sistema che non comprendiamo, che non possiamo interrogare e che non possiamo fermare. E quella mattina, a differenza del romanzo, non sarà finzione letteraria.