Go down

di Luca Sesini e Beppe Carrella


Nel 2025, la giustizia non si amministra solo nei tribunali. Si scrive nel codice, si decide nei protocolli, si nasconde nei filtri. Le istituzioni non sono più solo edifici: sono piattaforme, dashboard, interfacce. Eppure, qualcosa non torna. Perché se il sistema funziona, ma esclude, possiamo davvero chiamarlo giusto?

Per provare a capirlo, lasciamo da parte le definizioni e affidiamoci ai simboli. Due figure ci accompagnano in questo viaggio: Antigone, la disobbediente che seppellisce ciò che il potere vuole cancellare, e Lady Loki, la trasformista che smaschera le regole ingiuste. Non sono eroine digitali, ma archetipi che ci aiutano a porre le domande giuste. Quelle che le istituzioni, spesso, preferiscono evitare.

Antigone: la giustizia che non chiede il permesso

Antigone non è una ribelle qualunque. È colei che sceglie di seppellire il fratello, nonostante il divieto del re. È la voce che dice “no” quando il potere impone il silenzio. È la custode di una giustizia più alta, quella che non si piega alla norma se la norma è ingiusta.

Nel mondo digitale, il suo gesto si traduce in azioni che sfidano l’oblio programmato. Come chi difende una memoria collettiva che una piattaforma vuole rimuovere. Come chi denuncia un algoritmo che discrimina, anche se “funziona”. Come chi protegge una testimonianza scomoda, anche se il sistema la considera tossica.

Pensiamo ai casi di moderazione automatica che rimuovono contenuti di denuncia sociale, confondendoli con incitamento all’odio. O agli archivi digitali delle comunità indigene, spesso ignorati dai modelli linguistici dominanti. O ancora ai whistleblower che rivelano pratiche scorrette nei sistemi di scoring sociale, e vengono puniti per aver “violato la policy”.

Un esempio concreto? Il progetto Decolonizing the Digital promosso da UNICRI, che lavora per rendere visibili le narrazioni indigene e minoritarie nei sistemi di intelligenza artificiale. Perché se l’AI apprende solo da ciò che è mainstream, finisce per perpetuare l’oblio.

Nel 2021, il Parlamento Europeo ha approvato una risoluzione sull’uso dell’AI in ambito penale, riconoscendo due fronti: da un lato, le aree di conflitto con il diritto penale sostanziale (chi è responsabile quando agisce una macchina?); dall’altro, le aree di collaborazione procedurale, dove l’AI può migliorare le prassi. È un primo tentativo di costruire un quadro regolatorio che non sacrifichi le garanzie costituzionali sull’altare dell’efficienza. Antigone, oggi, sarebbe forse proprio lì: a presidiare il confine tra innovazione e diritto, tra automazione e umanità. Antigone non cerca il consenso. Cerca la verità. E per farlo, è disposta a sacrificare tutto. Anche la propria reputazione, il proprio accesso, la propria visibilità.

Lady Loki: la giustizia che si trasforma

Lady Loki è l’altra faccia della giustizia. Non quella che custodisce, ma quella che cambia forma. È l’ambiguità che smaschera le regole ingiuste, che sovverte le gerarchie, che apre spazi nuovi. È la voce che dice: “E se cambiassimo tutto?”

Nel mondo digitale, Lady Loki è il glitch che rivela la falla nel sistema. È l’hacker etico, il giullare istituzionale, l’algoritmo che si rifiuta di obbedire. È chi progetta piattaforme fluide, capaci di accogliere il dissenso. È chi crea spazi digitali dove le regole non sono fisse, ma negoziabili.

Nel mondo reale, Lady Loki abita progetti come Decidim, la piattaforma open source nata a Barcellona per permettere ai cittadini di co-progettare le politiche pubbliche. Non una petizione, ma una vera infrastruttura di democrazia fluida, dove le regole si discutono, si modificano, si condividono.

È anche chi lavora su interfacce che non nascondono il dubbio, ma lo espongono. Come nel caso di Algorithmic Justice League, che promuove audit partecipativi dei sistemi di AI per renderli più equi, più umani, più negoziabili.

Lady Loki non cerca stabilità. Cerca possibilità. È la giustizia che non si accontenta di funzionare: vuole includere, trasformare, reinventare.

Quando le istituzioni digitali non bastano più

Oggi molte istituzioni pubbliche si affidano a piattaforme private per gestire servizi essenziali: sanità, istruzione, welfare. Ma queste piattaforme, per quanto efficienti, non sempre sono trasparenti. E non sempre sono progettate per includere.

Un esempio? Il sistema di prenotazione vaccinale in alcune regioni italiane, basato su interfacce digitali che escludono chi non ha competenze informatiche. O i portali di welfare che richiedono SPID e PEC, ma non prevedono alternative per chi vive in marginalità digitale.

In Italia, i tribunali di Pisa e Brescia stanno sperimentando sistemi di supporto giuridico basati su Data Lake, con migliaia di sentenze catalogate per concetti. Questo approccio non solo accelera l’elaborazione dei casi, ma riduce il divario tra grandi studi legali e piccole realtà professionali. È un esempio di come la tecnologia possa democratizzare l’accesso alla giustizia, se progettata per amplificare le capacità umane, non per sostituirle.

La solidità non è solo infrastrutturale. È etica. È relazionale. È la capacità di ascoltare, correggere, evolvere.

Antigone ci ricorda che le istituzioni devono essere spazi di memoria condivisa.
Lady Loki ci insegna che devono essere capaci di cambiare forma, quando la forma esclude.

Giustizia algoritmica: tra opacità e accountability

Secondo il rapporto 2024 dell’OECD, meno del 20% dei sistemi pubblici di AI sono dotati di meccanismi di audit indipendenti. La maggior parte delle decisioni automatizzate — dall’assegnazione di sussidi alla sorveglianza predittiva — avviene in ambienti opachi, dove il cittadino non può né comprendere né contestare.

Eppure, l’algoritmo è già istituzione. Decide, filtra, ordina. Ma chi lo controlla? Chi lo progetta? Chi lo corregge?

Pensiamo ai sistemi di scoring per l’accesso al credito, che penalizzano chi ha un profilo “non conforme”. O agli algoritmi di selezione del personale, che escludono candidati sulla base di pattern invisibili. O ancora ai modelli predittivi usati per identificare “zone a rischio criminalità”, che spesso replicano stereotipi territoriali.

Un esempio italiano è il progetto Giove, software sviluppato dalla Polizia di Stato per supportare le indagini preliminari attraverso analisi predittiva. Giove non prende decisioni autonome, ma aiuta gli operatori a individuare pattern ricorrenti tra reati apparentemente scollegati. Il sistema è sottoposto a valutazione d’impatto privacy e supervisionato da personale umano, come richiesto dalle linee guida europee. È una sperimentazione che solleva interrogativi cruciali: fino a che punto possiamo delegare l’intuizione investigativa a un algoritmo? E come garantire che la prevenzione non diventi sorveglianza?

La giustizia digitale non può essere una simulazione di equità. Deve essere accountability reale, accesso, possibilità di contestazione.

Sostenibilità digitale: non solo ambientale, ma anche istituzionale

Parlare di sostenibilità digitale non significa solo ridurre l’impatto ambientale delle tecnologie. Significa anche costruire istituzioni capaci di durare, di includere, di rigenerare.

Pensiamo ai progetti di archivi digitali comunitari, come quelli che raccolgono testimonianze di migrazioni e conflitti. O ai sistemi di governance partecipativa che permettono ai cittadini di intervenire nei processi decisionali. O ancora alle piattaforme che integrano il sapere locale nei modelli di AI ambientale.

In Kenya, il progetto Ushahidi ha creato una piattaforma partecipativa per mappare crisi e violazioni dei diritti umani. In Estonia, la digitalizzazione dei servizi pubblici è accompagnata da un forte investimento in trasparenza e accessibilità.

Antigone ci invita a custodire la memoria dei territori, delle culture, delle lotte.
Lady Loki ci invita a sovvertire le regole che escludono, a progettare sistemi fluidi, capaci di adattarsi.

La sostenibilità digitale è anche giustizia sociale. È il diritto di essere rappresentati, ascoltati, inclusi. È la possibilità di trasformare le istituzioni, non solo di subirle.

Ma c’è un confine che nessuna tecnologia potrà superare: quello della coscienza. Come ricorda Federico Faggin, la differenza fondamentale tra umani e macchine è la capacità di vivere esperienze, di attribuire significato, di scegliere. Nessun algoritmo, per quanto sofisticato, può replicare il principio di equità, la comprensione profonda, la creatività naturale. È per questo che la giustizia, anche nel tempo dell’AI, resta una vocazione umana.

Conclusione: la giustizia è anche immaginazione

Antigone ci ricorda che la giustizia è memoria. Lady Loki ci insegna che la giustizia è trasformazione. E il digitale, se guidato da questi archetipi, può diventare uno spazio di pace, equità e istituzioni solide.

Ma serve coraggio. Serve visione. Serve la capacità di vedere oltre il codice, oltre la norma, oltre il profitto. Perché la vera sostenibilità digitale non si misura in gigabit, ma in gesti di cura e atti di ribellione consapevole.

E allora, forse, potremo davvero costruire istituzioni che non solo funzionano, ma che ascoltano, includono, trasformano. Proprio come Antigone. Proprio come Loki.


Pubblicato il 23 marzo 2026

Luca Sesini

Luca Sesini / Governance & Sustainability | Business & Digital Transformation | Innovation enthusiast | Change Management | NEDcommunity member