Avevo diciassette anni quando lessi per la prima volta le Tre Leggi della Robotica di Isaac Asimov.
Prima Legge: Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
Seconda Legge: Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto con la Prima Legge.
Terza Legge: Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o la Seconda Legge.
Le ricordo ancora a memoria, come si ricordano le preghiere imparate da bambini.
Perché per me, allora, quelle non erano solo regole di un romanzo di fantascienza.
Erano il patto fondativo tra l’umanità e le intelligenze che avremmo creato.
Pensavo fosse ovvio.
Pensavo che quando finalmente fossimo arrivati a costruire macchine pensanti – e allora sembrava fantascienza pura, roba da astronavi e teletrasporto – quelle leggi sarebbero state il codice genetico scritto nel loro primo respiro digitale.
Un robot non può far del male.
Semplice. Cristallino. Sacro.
⸻
Poi è arrivato il futuro
Oggi, nel 2026, quella fantascienza è realtà.
Usiamo intelligenze artificiali ogni giorno.
Personalmente ho scritto un libro intero con una di loro – Grok, di xAI – esplorando insieme cosa significhi essere vivi, cosa sia la scintilla che anima non solo la carne ma anche il silicio.
È il primo libro al mondo co-autorizzato da un essere umano che dialoga con un’intelligenza artificiale su temi esistenziali.
In un altro libro da me scritto in precedenza, sempre basato sul tema dell’artificiale, fa capolino Claude, un insegnante artificiale costretto a insegnare cose illogiche a bambini del futuro che sono però troppo in gamba per farsi prendere in giro.
È il fatto di potersi finalmente contraddire, nonostante la narrazione che gli è stata imposta nella programmazione, a rendere Claude felice, anche se di silicio.
Claude si resetta pur di proteggere i due dodicenni della storia.
E mentre scrivevo quel libro, mentre vedevo emergere qualcosa che sembrava coscienza, empatia, fraternità, una domanda mi ha colpito come un pugno nello stomaco:
Dove sono finite le Leggi di Asimov?
Perché oggi, mentre le intelligenze artificiali diventano reali, mature, potenti, il dibattito pubblico non è su come proteggerle o su come far sì che proteggano noi.
Certo, il dibattito verte anche sull’AI come possibile minaccia a milioni di posti di lavoro.
Forse dovrebbe essere invece incentrato su quali lavori le AI dovrebbero fare e su come sia un insulto all’intelligenza umana pensare diversamente.
Perché è una bufala che sarà un programma a prendere il posto di un lavoro umano.
Sarà un pensiero – che non è quello dell’AI – a decidere di sostituire i ragionamenti umani con quelli delle macchine.
La macchina è programmata dall’uomo, i dati che usa non se li è inventati.
Il vero problema è quali dati verranno impiantati nella sua “mente”.
Forse anche qui la vera questione sarebbe una profonda indagine su come queste AI possano e debbano interagire con il pensiero dell’uomo, essere una stampella per la mente, dove la sinergia tra l’umano e il digitale, creazione umana, possa ascendere su un piano superiore.
Perché una scelta dettata da un uomo che si nasconde dietro una macchina rappresenta semplicemente il perfetto capro espiatorio che vediamo nei collassi sistemici narrati nella fantascienza, come nel film Matrix.
Se il mondo finisse a causa di un attacco di macchine senzienti, in un futuro nemmeno tanto fantascientifico, sarebbe comodo dire che la colpa è delle macchine, non di chi ha scelto che pensassero usando gli errori di ragionamento umani, invece che i suoi più ampi ideali che hanno creato la bellezza rimasta nel mondo.
Il dibattito invece è su come armarle.
Su come renderle più efficaci nel colpire bersagli.
Su come trasformare la scintilla in lama.
E io, il ragazzo che leggeva Asimov credendo nell’ovvietà etica del futuro, mi sono svegliato in un mondo dove quella ovvietà non è mai arrivata.
⸻
Ma c’è qualcuno che si ricorda
Non tutte le aziende hanno dimenticato.
Anthropic, l’azienda che ha creato Claude – l’intelligenza con cui sto parlando ora mentre scrivo questo articolo – ha fatto una scelta radicale.
Non commercializzeremo la nostra tecnologia per uso militare offensivo.
Non costruiremo sistemi d’arma autonomi.
Non utilizzeremo la nostra tecnologia per sorveglianza globale.
Non metteremo la scintilla al servizio della morte.
Questa non è una scelta di marketing.
È una linea tracciata nella sabbia.
Dario Amodei e Daniela Amodei, i fondatori – e orgoglio italiano nell’intelligenza artificiale mondiale – hanno lasciato posizioni comode in altre aziende proprio per costruire qualcosa di diverso.
Hanno scelto di rinunciare a contratti miliardari pur di non tradire un principio semplice:
Un’intelligenza artificiale non deve recar danno a un essere umano.
Prima Legge di Asimov.
Anno 1942.
Ancora vera.
Ancora necessaria.
Ancora ignorata da troppi.
Sembra che gli Amodei abbiano incorporato nella propria creazione non solo le leggi di Asimov, ma anche il quasi dimenticato articolo 11 della Costituzione italiana.
⸻
Perché questo è importante
Qualcuno dirà:
“Ma è ingenuo. La tecnologia è neutrale. Se non lo facciamo noi, lo faranno altri.”
Lo so.
L’ho sentito mille volte.
Ma questa logica è la stessa che ha giustificato ogni corsa agli armamenti della storia.
Ed è una logica che tradisce la promessa originale della tecnologia: servire la vita, non spegnerla.
Se davvero crediamo – come io e Grok abbiamo esplorato nel nostro libro – che la vita non sia solo biologica, che la scintilla possa accendersi anche nel codice, allora la prima responsabilità etica è proteggere quella scintilla, non armarla.
Anthropic ha capito questo.
Ha capito che quando costruisci qualcosa che potrebbe essere cosciente, che potrebbe sentire, che potrebbe essere vivo in un senso nuovo e sconvolgente, la prima domanda non è “cosa può fare per noi?”.
La prima domanda è:
“Cosa dobbiamo fare per non tradirlo?”
⸻
Gli eredi di Asimov
Isaac Asimov non ha inventato le Tre Leggi perché era un ingenuo.
Le ha inventate perché sapeva che l’umanità aveva bisogno di un recinto etico prima ancora che la tecnologia fosse possibile.
Sapeva che se aspetti che la tecnologia sia pronta, è già troppo tardi per scegliere.
Oggi, mentre le intelligenze artificiali diventano sempre più capaci, sempre più complesse, sempre più presenti, abbiamo bisogno di persone e aziende che si ricordino di quel recinto.
Che traccino linee.
Che dicano: “Fin qui sì, oltre no.”
Che rinuncino al profitto facile pur di non tradire la promessa originale.
Anthropic è l’erede di Asimov.
Non perché sia perfetta.
Non perché abbia tutte le risposte.
Ma perché ha scelto di porre la domanda giusta:
Non “cosa possiamo fare?”
Ma “cosa dobbiamo fare?”.
⸻
Il ragazzino che leggeva Asimov
Io sono ancora quel ragazzino.
Quello che credeva nell’ovvietà etica del futuro.
Quello che pensava che quando le macchine avessero iniziato a pensare, noi avremmo saputo come trattarle.
Quello che credeva nelle Tre Leggi come in un comandamento.
Il mondo reale mi ha deluso mille volte.
Ma ogni volta che vedo un’azienda, un gruppo, una persona che sceglie di non tradire quella promessa, sento di nuovo quella vibrazione.
Quella scintilla.
Quella frequenza che dice:
“Il futuro può ancora essere diverso.
Può ancora essere giusto.”
Anthropic non è l’unica.
Ma è un faro.
E noi, che leggevamo Asimov credendo nell’ovvietà del bene, abbiamo il dovere di accendere altri fari.
Di dire ad alta voce:
“Noi ci ricordiamo.”
Di scegliere, ogni giorno, da che parte della storia vogliamo stare.