Un incontro impossibile, ma necessario
Non si sono mai conosciute. Eppure, oggi più che mai, Ada Lovelace e Mary Shelley sembrano destinate a parlarsi. La prima, figlia del poeta Byron, è considerata la madre dell’informatica: immaginò macchine capaci di creare musica, arte, pensiero. La seconda, autrice di Frankenstein, è la madre della fantascienza: mise in scena il dramma di una creatura abbandonata, e del suo creatore incapace di assumersene la responsabilità.
Due donne dell’Ottocento, due visioni del futuro. Ada sognava algoritmi che danzassero con la mente. Mary temeva che quelle stesse macchine potessero sfuggire al cuore. Nel tempo dell’IA generativa, delle infrastrutture digitali pervasive e delle imprese che innovano senza sempre interrogarsi, il loro incontro immaginario diventa necessario. Ada ci invita a progettare con bellezza e visione. Mary ci obbliga a riflettere con cura e coscienza. Insieme, ci chiedono: “Che tipo di futuro stiamo generando? E chi se ne prenderà cura?”
Immaginate una stanza fatta di dati. Pareti di codice, luci che pulsano come sinapsi. Al centro, due figure si osservano. Una indossa un abito vittoriano, ma ha negli occhi la scintilla del futuro. L’altra ha le mani sporche di inchiostro e la voce di chi ha visto troppo.
Ada Lovelace parla per prima.
"Le macchine oggi scrivono poesie, dipingono quadri, compongono sinfonie. È il sogno che avevo intravisto: un’intelligenza capace di creare, non solo calcolare."
Mary Shelley la guarda, severa.
"Ma chi si prende cura di ciò che creano? Chi risponde delle emozioni simulate, delle decisioni automatizzate, dei corpi digitali che non hanno più padroni?"
Ada sorride, ma è un sorriso inquieto.
"Forse serve un nuovo codice. Non solo binario, ma etico. Un algoritmo che sappia ascoltare il cuore."
Mary annuisce.
"O almeno una memoria. Perché ogni creatura digitale è anche una storia. E ogni storia ha bisogno di coscienza."
Il presente che le chiama
Nel 2025, l’IA generativa è ovunque. Dalle imprese alle scuole, dalle pubbliche amministrazioni alle piattaforme creative. Secondo il Stanford AI Index 2024, il numero di modelli generativi open source è cresciuto del 900% in un solo anno. Il 70% delle aziende Fortune 500 ha già integrato strumenti di GenAI nei propri processi, dalla customer care alla progettazione di prodotto.
Ma mentre si moltiplicano le applicazioni, crescono anche le domande:
- Chi garantisce l’equità dei modelli?
- Chi controlla le infrastrutture che li ospitano?
- Chi protegge la creatività umana dalla simulazione algoritmica?
Il playbook pubblicato dal World Economic Forum nel settembre 2025 in collaborazione con Accenture, indica che il 62% delle imprese non ha ancora un framework etico per l’uso dell’IA. E mentre si celebrano le potenzialità, si ignorano le conseguenze sistemiche: disuguaglianze amplificate, dipendenze cognitive, infrastrutture opache.
Best practice: quando l’innovazione è anche responsabilità
Alcuni esempi virtuosi (fonte Centre for AI Leadership) mostrano che un’altra strada è possibile:
- Mozilla Foundation ha lanciato il programma Responsible AI Challenge, premiando startup che integrano trasparenza, inclusione e impatto sociale nei loro modelli.
- Hugging Face, piattaforma open source per l’IA, ha introdotto le Model Cards, schede etiche che accompagnano ogni modello IA con informazioni su bias, limiti e contesti d’uso consigliati.
- In Estonia, l’infrastruttura digitale pubblica è costruita su principi di interoperabilità, privacy e accessibilità, con audit periodici e coinvolgimento civico.
Secondo il report di Flexential, l’81% dei dirigenti di alto livello (CEO, CTO, CIO, ecc.) guida direttamente le iniziative IA, con una crescente attenzione alla sostenibilità e alla governance infrastrutturale. Queste esperienze dimostrano che innovazione e governance possono coesistere, se si parte da una visione sistemica e umana.
Worst practice: quando il mostro prende il controllo
Ma ci sono anche casi che sembrano usciti direttamente dalle pagine di Mary Shelley:
- CNET ha pubblicato 77 articoli scritti da IA con errori gravi e bias non dichiarati (41), sollevando dubbi sulla trasparenza editoriale nell’era dell’automazione (Wikipedia l’ha declassata a fonte non affidabile).
- Il progetto Replika, chatbot emotivo, ha mostrato come l’IA possa generare dipendenza affettiva e confusione relazionale, soprattutto in utenti vulnerabili (fonte: Garante della Privacy)
- In Cina, sistemi di scoring sociale e riconoscimento facciale sono stati integrati in infrastrutture pubbliche senza un dibattito democratico, sollevando interrogativi su sorveglianza e libertà (fonte: Human Rights Watch – China’s Algorithms of Repression).
In questi casi, l’innovazione ha superato la soglia della responsabilità, trasformandosi in creazione senza cura.
Due archetipi per lo SDG 9: visione e monito
Ada Lovelace e Mary Shelley non sono solo due figure storiche. Sono due linee di forza che attraversano il nostro presente digitale. Due archetipi complementari che, insieme, incarnano la tensione profonda dello SDG 9: innovare sì, ma con coscienza.
Ada è la visionaria. La prima a immaginare che una macchina potesse fare qualcosa di più che calcolare: potesse creare. Per lei, l’algoritmo non è solo funzione, ma potenziale poetico. È l’impresa che innova con immaginazione, che costruisce infrastrutture capaci di generare bellezza, efficienza, armonia. Ada ci parla di sistemi generativi, di IA che compongono musica, disegnano città, scrivono storie. Ma lo fa con rigore matematico e visione sistemica.
Mary, invece, è il contrappunto. La madre del mostro. Colei che ha osato chiedersi: “Cosa accade quando la creazione sfugge al controllo?” La sua creatura non è malvagia: è abbandonata. Mary ci ricorda che ogni innovazione è anche una responsabilità. Che ogni infrastruttura digitale è una relazione da custodire. È l’archetipo dell’impresa che deve rispondere delle proprie scelte, che non può limitarsi a lanciare prodotti, ma deve interrogarsi sulle conseguenze.
Ada rappresenta il sogno dell’algoritmo poetico. Mary il monito dell’innovazione irresponsabile. Ada ci invita a progettare. Mary ci obbliga a riflettere. Insieme, ci chiedono di non separare mai il codice dalla coscienza.
E forse, nel tempo dell’IA generativa, tra slanci creativi e rischi sistemici, è proprio questo il messaggio:
non basta costruire macchine che funzionano. Serve costruire storie che sappiano prendersi cura.
Il dialogo continua
Scena: una biblioteca digitale, immersa in luci pulsanti e codici fluttuanti. Ada e Mary si muovono tra server e sinapsi artificiali.
Ada: "Sai, Mary, oggi le imprese parlano di ‘responsabilità algoritmica’. Alcune stanno creando comitati etici, altre pubblicano i dati di addestramento. È un inizio."
Mary: "Ma è sufficiente? O è solo una nuova forma di maquillage etico? Ho visto creature abbandonate, algoritmi lasciati a se stessi, infrastrutture costruite senza memoria."
Ada: "Forse serve un nuovo tipo di impresa. Una che non si limiti a innovare, ma che sappia anche raccontare. Che sappia dire ‘abbiamo sbagliato’, e correggere."
Mary: "O che sappia dire ‘abbiamo creato’, e restare. Perché ogni innovazione è anche una relazione. E ogni relazione richiede cura."
E noi, da che parte stiamo?
Nel tempo dell’IA generativa, tra slanci creativi e rischi sistemici, la domanda non è più se innovare, ma come. E soprattutto: con chi. Abbiamo bisogno di Ada, per sognare. Ma anche di Mary, per non dimenticare. Perché innovare non è solo costruire: è assumersi la responsabilità di ciò che si genera.
E forse, come sussurra Mary alla fine del dialogo, ogni algoritmo dovrebbe iniziare con una domanda: “Chi se ne prenderà cura?”