C’è una scienza che non consola. Una scienza che non risponde, ma affina la domanda. Non promette salvezza, ma espone all’instabilità di ciò che è possibile. Il Nobel Prize Dialogue Tokyo 2025 si è incaricato, senza infingimenti, di nominare l’innominabile: il futuro della vita.
La grammatica prima
Ada Yonath, con la pacatezza di chi ha attraversato deserti epistemici, ha mostrato che la vita — nella sua architettura più intima — è un atto di traduzione. I ribosomi non “producono” la vita, la interpretano. Ricevono codici, li decodificano, e ne restituiscono sostanza. Ma ogni traduzione, come ogni vita, è parziale, soggetta a errore, aperta al fraintendimento. È in questo margine — tra fedeltà e slittamento — che si colloca la nostra umanità. Siamo l’effetto secondario di una trascrizione imperfetta. La metafora è potente. Ogni algoritmo, ogni sistema di intelligenza artificiale, è anch’esso una forma di traduzione. Ma manca di contesto, di incarnazione. Manca di quel rumore di fondo che fa di un codice una storia.
Il punto non è se l’AI possa emulare l’intelligenza biologica. Il punto è che l’intelligenza biologica è nata da un’ambiguità. Da un’incompletezza feconda. E ogni tentativo di eliminarla non è progresso: è amputazione.
Il codice e la sua giurisdizione
Richard Roberts, con il tono sobrio del genetista che ha visto la propria disciplina trasformarsi in ideologia, ha ripetuto un monito scomodo: la possibilità tecnica non è mai neutra. Non possiamo più permetterci l’illusione che le scelte scientifiche siano “pure”, sganciate da conseguenze politiche, economiche, ecologiche. La genomica, l’editing genico, le biotecnologie agricole: tutto è campo di forze, non solo laboratorio.
Ciò che viene tagliato, inserito, silenziato in una sequenza genica non è soltanto informazione biologica. È una dichiarazione implicita su ciò che riteniamo desiderabile, utile, tollerabile. Il gene non è più il luogo dell’ereditarietà, ma della programmabilità sociale. Non è la natura a parlare attraverso la genetica. Siamo noi che stiamo riscrivendo il suo lessico. E senza grammatica etica, rischiamo di produrre aberrazioni perfettamente funzionanti.
Il paradosso, dunque, è che mentre aumentano le nostre capacità di intervenire sul vivente, si assottigliano gli strumenti per riflettere sul significato di quell’intervento. Non basta avere comitati etici.
Serve una nuova filosofia della soglia: quella che distingue il potere dal diritto, la progettazione dalla cura.
Il doppio inerte
Quando Hiroshi Ishiguro ha fatto salire sul palco il suo androide identico, la sala si è fatta silenziosa. Non per timore, ma per un senso improvviso di eccesso di somiglianza. Il doppio era perfetto, ma vuoto. Parlava, ma non dialogava. Imitava, ma non sbagliava. L’errore, assente, diventava improvvisamente necessario. Senza errore, niente apprendimento. Senza apprendimento, niente coscienza. Senza coscienza, niente alterità.
L’androide di Ishiguro non è minaccioso perché potrebbe sostituirci. Lo è perché ci costringe a riformulare ciò che intendiamo per essere umano. Non siamo tali perché parliamo, o apprendiamo. Siamo tali perché falliamo, perché tremiamo, perché siamo affetti da memoria. La macchina non dimentica, ma non ricorda. Ricordare, nell’umano, è un atto creativo, mai neutro.
E non c’è algoritmo che possa sopportare il peso di un ricordo doloroso.
L’etica dell’accesso
Chieko Asakawa, senza retorica né richiesta di indulgenza, ha demolito l’idea che la tecnologia sia neutrale. Non lo è. Lo è forse nel disegno, ma non nell’uso, né tantomeno nella distribuzione. La tecnologia è una politica dell’accesso. E chi ne resta fuori, oggi, non è semplicemente “escluso”: è invisibile.
La sua testimonianza è radicale: l’innovazione è tale solo se anticipa la pluralità. Non se la “gestisce”, ma se la incorpora sin dall’origine. Il futuro non può essere un’estensione del presente privilegiato. Deve essere un dispositivo di riequilibrio. L’accessibilità non è un’aggiunta gentile, ma il banco di prova della civiltà tecnologica.
C’è una frase che ha lasciato il segno: “Ho imparato a vivere in un mondo che non è stato progettato per me.”
È una dichiarazione di resistenza, ma anche di lucidità. Quante tecnologie, quanti algoritmi, quanti modelli di intelligenza sono progettati su un’idea unica e riduttiva di essere umano?
La vita come conflitto tra tempo e senso
Nel susseguirsi dei panel, si è delineato un conflitto non dichiarato ma onnipresente: quello tra la velocità della scoperta e la lentezza della comprensione. Le tecnologie accelerano, i sistemi regolatori arrancano, le categorie morali si svuotano. Eppure, la domanda che resta è una: a quale scopo tutto questo?
Il “futuro della vita” non è solo un orizzonte scientifico. È un interrogativo narrativo. Un racconto che si può ancora scrivere — o falsificare. La posta in gioco non è come evolveremo, ma se saremo capaci di reggere la contraddizione tra potenza e fragilità, tra autonomia e dipendenza, tra progresso e bisogno di senso.
Postludio: la vulnerabilità come fondamento
Alla fine, ciò che resta impresso di questo Nobel Dialogue non è una soluzione, ma una condizione: la vulnerabilità radicale del vivente. Non l’imperfezione come errore, ma come origine. Non la debolezza come problema, ma come terreno di legame. La macchina ottimizza. L’umano, quando è davvero tale, riconcilia.
Forse è questa la nuova etica della conoscenza: un sapere che non si chiude nella predizione, ma si apre all’incertezza. Che non si fissa nell’efficienza, ma nell’interazione. Che non cerca di dominare la vita, ma di custodirla.
Il futuro non è scritto. Ma ogni decisione che prendiamo oggi scrive il modo in cui la vita verrà riconosciuta domani.
E non si tratta più solo di ciò che possiamo fare. Ma di ciò che — ancora — scegliamo di non fare.