Nel cuore pulsante dell’Agenda 2030, lo SDG 5 – Parità di Genere – non è solo una voce tra le tante. È un appello urgente a ripensare il modo in cui costruiamo il mondo — anche quello digitale. Perché ogni piattaforma, ogni algoritmo, ogni sistema automatizzato non è neutro: è il riflesso di scelte umane. Scelte che raccontano chi ha voce, chi ha potere, chi viene ascoltato. E chi, invece, resta ai margini.
Secondo il Global Gender Gap Report 2023 del World Economic Forum, le donne rappresentano meno del 29% della forza lavoro nel settore tecnologico a livello globale. E nei ruoli decisionali legati all’intelligenza artificiale, scendono sotto il 20%. Dietro questi numeri non ci sono solo statistiche.
Ci sono voci che non partecipano. Non scrivono il codice. Non definiscono gli algoritmi. Non progettano i sistemi che plasmeranno il mondo di domani. Eppure, quegli stessi sistemi decidono. Decidono chi viene riconosciuto, chi viene servito, chi viene escluso.
L’intelligenza artificiale entra ovunque: nel lavoro, nella salute, nell’educazione, nella giustizia. Parlare di parità di genere oggi significa anche questo: guardare dentro il codice, interrogare i dati, mettere in discussione le architetture digitali. Significa chiedersi chi ha il potere di definire i criteri dell’intelligenza, chi viene incluso nei dataset, chi resta fuori dalle decisioni che contano.
Il digitale non è neutro. Non lo è mai stato. Riflette le disuguaglianze che già esistono e, se non le interroghiamo, le amplifica con precisione matematica. I modelli di machine learning, ad esempio, apprendono dai dati storici: se quei dati raccontano un mondo dove le donne sono meno citate, meno assunte, meno pagate, l’algoritmo continuerà a replicare quel mondo. Senza malizia, ma con conseguenze reali.
Dietro ogni algoritmo c’è una visione del mondo. E se quella visione esclude, semplifica, distorce, allora non è davvero intelligente. È solo parziale. Umanizzare l’IA significa restituirle complessità, diversità, giustizia. Significa costruire sistemi che non solo funzionano, ma che rispettano. Perché l’equità non è un plugin. È una scelta. Una responsabilità. Una visione.
Non è solo un bug. È un bias.
Uno studio del MIT Media Lab ha rivelato che alcuni sistemi di riconoscimento facciale sbagliano nel riconoscere i volti femminili con pelle scura nel 34% dei casi. Per i volti maschili con pelle chiara, l’errore scende sotto l’1%.
Non è un dettaglio tecnico. È un sintomo. Di chi progetta. Di chi viene incluso nei dati. Di chi resta fuori dal campo visivo degli algoritmi. Per questo, oggi parlare di parità di genere significa anche parlare di codice, di dataset, di architetture digitali. Significa chiedersi: chi scrive gli algoritmi che decidono chi viene assunto, chi riceve un prestito, chi viene sorvegliato? E chi è escluso da quella scrittura?
Se vogliamo costruire un futuro più giusto, dobbiamo partire da qui. Dalle fondamenta invisibili del digitale. Perché è lì che si gioca la vera partita dell’inclusione. E ogni riga di codice può essere una porta aperta o un muro eretto.
Due archetipi ci aiutano a leggere questa battaglia: Atena, dea della saggezza e della strategia, e Batgirl, eroina del digitale e della giustizia urbana. Due figure diverse, ma unite da una visione: quella di una tecnologia che non serve il potere, ma lo interroga. Che non esclude, ma protegge. Che non domina, ma emancipa.
Atena: la saggezza che tesse il futuro
Atena non è solo la dea della guerra giusta. È anche l’inventrice della tessitura, della navigazione, della strategia. È la mente che costruisce ponti, non muri. Nell’antica Grecia, Atena rappresentava la capacità di pensare prima di agire, di proteggere senza distruggere. È la patrona delle città, della civiltà, della tecnica.
Nel mondo digitale, Atena ci ricorda che la tecnologia è sempre una scelta morale. Che ogni algoritmo è una decisione politica. Che ogni sistema informatico può essere progettato per includere o per escludere. E che la saggezza non è solo conoscenza: è responsabilità.
Ma oggi, dove sono le Atena del digitale? Le donne sono ancora sottorappresentate nei team di sviluppo, nei board tecnologici, nei dataset che alimentano l’intelligenza artificiale. E quando sono presenti, spesso devono lottare contro bias strutturali, stereotipi invisibili e metriche che non le contemplano.
Da Batgirl a Oracle: la resilienza che programma il futuro
Barbara Gordon, alias Batgirl, è una delle figure più interessanti dell’universo DC. Non ha superpoteri, ma ha qualcosa di più potente: intelligenza, competenza, determinazione. È una vigilante urbana, una stratega, una donna che combatte per la giustizia.
Ma il momento più significativo della sua storia non è quando indossa il mantello. È quando lo perde.
Dopo essere stata gravemente ferita da Joker, Barbara non rinuncia alla sua missione. Al contrario, si trasforma. Abbandona l’identità fisica di Batgirl e rinasce come Oracle: una hacker, una mente digitale, il cervello invisibile della Justice League. Oracle non combatte con i pugni, ma con i dati. Coordina, protegge, decifra. È la regista della giustizia, la custode dell’informazione, la garante dell’equilibrio.
Questa trasformazione è cruciale. Oracle incarna la resilienza femminile nel digitale: la capacità di reinventarsi, di usare la tecnologia per proteggere, di trasformare il trauma in potere operativo. È l’archetipo l’archetipo della donna che non si arrende. Che usa la tecnologia per proteggere, per informare, per coordinare. È l’anti-stereotipo: non è sexy per compiacere, è potente per agire. E soprattutto, è consapevole. Sa che il sistema è fallato, ma non lo subisce: lo modifica.
In un mondo dove gli algoritmi decidono chi viene assunto, chi riceve un prestito, chi viene sorvegliato, Oracle ci insegna che la giustizia digitale non è automatica. Va progettata, monitorata, difesa. E che le donne devono essere protagoniste di questa progettazione.
Il problema: bias, esclusione, invisibilità
I dati parlano chiaro. Le donne sono meno del 25% nei ruoli STEM in Europa. Le AI generative riproducono stereotipi di genere. I modelli di machine learning apprendono dai dati storici – e quindi perpetuano le disuguaglianze storiche. Se nei dati di training le donne sono associate a ruoli di cura, l’algoritmo continuerà a suggerire loro professioni non tecniche. Se nei dataset le donne sono meno citate, saranno meno visibili nei risultati.
Questo non è un bug. È una scelta. O meglio, è una non-scelta: quella di non interrogare il codice, di non includere prospettive diverse, di non mettere in discussione il paradigma dominante.
La soluzione: riscrivere il codice, insieme
Lo SDG 5 ci chiede di fare molto più che “includere le donne”. Ci chiede di trasformare il sistema. Di creare ambienti digitali dove la diversità sia un valore, non un ostacolo. Di progettare algoritmi che non solo siano equi, ma che sappiano riconoscere e correggere le ingiustizie.
Come? Ecco alcune leve operative:
- Gender auditing dei dataset: analizzare i dati per rilevare squilibri e correggerli.
- Team di sviluppo inclusivi: non solo donne, ma anche pluralità di esperienze e background.
- Educazione digitale femminile: investire in formazione, mentorship, role model.
- Etica applicata nell’AI: integrare criteri di giustizia, trasparenza e accountability nei modelli.
Conclusione: Atena e Batgirl non sono solo simboli
Sono strategie narrative per cambiare il modo in cui pensiamo il digitale. Perché ogni sistema tecnologico è anche un sistema simbolico. E se vogliamo che il digitale sia uno spazio di giustizia, dobbiamo popolarlo di figure che incarnano quella giustizia.
Lo SDG 5 non è solo una battaglia per le donne. È una battaglia per la qualità della tecnologia. Perché una tecnologia che esclude metà dell’umanità non è solo ingiusta: è inefficiente, miope, pericolosa.
Atena ci insegna a pensare. Oracle ci insegna a agire. Tocca a noi, oggi, unire pensiero e azione per costruire un digitale che sia davvero umano. “Chi è la Oracle del tuo team? Chi è l’Atena del tuo algoritmo?”