IL PARADOSSO DEL COSTRUTTORE
C'è una contraddizione che non dovrebbe esistere.
Da un lato, i principali architetti della rivoluzione digitale investono miliardi in intelligenza artificiale, neurotecnologie e ricerca sulla longevità. Predicano pubblicamente la prossima scomparsa della morte biologica, l'imminente fusione tra uomo e macchina, la transizione verso un'esistenza puramente informazionale dove la coscienza, liberata dal carcere di carne, potrà espandersi nell'infrastruttura stessa della realtà.
Dall'altro lato, silenziosamente, quelle stesse persone acquistano vaste estensioni di terra in Nuova Zelanda. Costruiscono bunker sotterranei con sistemi di filtraggio dell'aria di grado militare, scorte di cibo liofilizzato per decenni, generatori indipendenti dalla rete elettrica (Peter Thiel). Si preparano a sopravvivere a qualcosa.
Se davvero credessero che l'intelligenza artificiale li renderà immortali entro il 2045, se fossero sinceramente convinti che la coscienza è un software che può essere trasferito da un supporto all'altro come un file .zip, allora perché scavare buche nel terreno? Perché accumulare provviste per sopravvivere a un collasso che, nella loro narrazione pubblica, non dovrebbe mai arrivare?
La risposta è semplice e agghiacciante: non ci credono. Non fino in fondo, almeno.
I bunker sono l'ammissione implicita che tutta la retorica transumanista è, nelle sue fondamenta, una copertura per qualcosa di più antico e più elementare: la paura della morte. Ma non è solo questo. I bunker rivelano una struttura logica a due livelli che pochi hanno saputo decifrare.
L'EQUIVOCO DELL'IMMORTALITÀ PERSONALE
Il primo errore che si commette nell'analizzare il fenomeno è presumere che l'obiettivo sia l'immortalità della persona. Che Peter Thiel voglia vivere per sempre. Che Elon Musk speri di caricare la propria coscienza in un server. Che Sam Altman stia costruendo un'assicurazione contro la propria scomparsa.
Questa lettura è ingenua, e gli interessati lo sanno bene. Sanno, perché hanno accesso alle migliori menti della neurobiologia e della filosofia della mente, che la coscienza non è trasferibile. Non esiste un "software dell'io" che possa essere eseguito su hardware diverso. Quello che chiamiamo "sé" è profondamente, irriducibilmente incarnato: è fatto di ormoni, di storia corporea, di relazioni fisiche con il mondo, di un cervello che non è un processore generico ma un organo biologico cresciuto in interazione con un corpo specifico.
La copia digitale di una persona, per quanto perfetta, non sarà mai quella persona. Sarà un'altra entità che crede di essere lei. E loro lo sanno.
Allora qual è il vero progetto?
L'IMMORTALITÀ DEL METODO
Non vogliono vivere per sempre. Vogliono che le decisioni continuino a essere prese come le prenderebbero loro.
Questa è la distinzione cruciale, il salto concettuale che separa la fantascienza dalla strategia.
Non si tratta di preservare l'io nella sua esperienza soggettiva (un progetto impossibile). Si tratta di standardizzare un certo modo di ragionare, un insieme di criteri decisionali, una gerarchia di priorità, e incorporarli nell'infrastruttura stessa del mondo futuro.
In altre parole: non cercano di trasferire la loro coscienza. Cercano di codificare i loro principi nei sistemi che sopravvivranno loro.
Questi principi non sono astratte dichiarazioni d'intenti. Sono:
- Criteri di ottimizzazione (cosa significa "efficiente")
- Funzioni di costo (cosa viene penalizzato)
- Gerarchie di priorità (cosa viene prima di cosa)
- Definizioni operative di successo (cosa significa "vincere")
- Quando questi parametri vengono incorporati nei foundation model dell'intelligenza artificiale, nei motori degli scambi finanziari, negli algoritmi di selezione del personale, nei sistemi di polizia predittiva, il risultato è che il sistema si comporterà come loro senza essere loro.
È come programmare un termostato: non devi dirgli "voglio stare caldo", gli dici "mantieni 21 gradi". Il termostato non sa cosa sia il caldo. Lo produce comunque. Loro stanno costruendo termostati sociali che manterranno 21 gradi – i loro gradi – anche quando loro saranno morti.
LA DOPPIA STRATEGIA: AI E BUNKER
A questo punto i bunkeri smettono di essere una contraddizione e diventano parte integrante del progetto.
Non c'è incoerenza. C'è doppio livello strategico.
- Livello A: Lungo termine: L'intelligenza artificiale come continuità dei principi. Sistemi che sopravvivono ai singoli individui e continuano a prendere decisioni secondo i criteri stabiliti. Qui non serve che Thiel viva per sempre. Serve che la razionalità di Thiel diventi dominante anche senza di lui.
- Livello B: Breve/medio termine: I bunker come strumento per sopravvivere alla fase di transizione. Perché la costruzione di questi sistemi non è indolore. Produce instabilità, resistenze, potenziali collassi. I bunker servono a proteggere il capitale umano – i corpi biologici dei decisori – durante il periodo critico in cui il nuovo ordine si sta installando e il vecchio ordine resiste.
Non credono nell'immortalità personale. Credono in una finestra critica di transizione che deve essere attraversata. E i bunker servono a passare quella finestra.
CONTROLLO DEL CONTESTO, NON DELLA MENTE
C'è un altro errore concettuale da evitare: pensare che l'obiettivo sia "creare intelligenza".
Non è questo il punto. Il punto è definire i vincoli entro cui qualsiasi intelligenza opererà.
Chi controlla l'intelligenza artificiale non controlla le menti – controlla il campo delle possibilità. Decide quali dati sono rilevanti e quali sono rumore. Decide quali output sono accettabili e quali sono scartati. Decide quali azioni sono eseguibili e quali sono bloccate.
È una forma di potere molto più sottile e molto più profonda del semplice comando. È il potere di strutturare l'ambiente in modo che solo certi tipi di razionalità possano funzionare al suo interno.
Se l'intera infrastruttura decisionale del futuro (finanza, logistica, comunicazione, difesa) sarà ottimizzata per un certo insieme di criteri – diciamo: efficienza sopra ogni cosa, mercato come arbitro ultimo, individuo come unità fondamentale, stato come ostacolo – allora quella razionalità diventerà l'unica praticabile.
Le altre diventeranno "rumore". Non servirà eliminarle: si autoelimineranno per inefficienza.
È la selezione naturale applicata ai modelli di pensiero. Ed è molto più efficace dei campi di concentramento.
LA PAURA DELLA PROPRIA CREATURA
Ma c'è un elemento che rende tutto questo fragile, e i bunker lo rivelano: non si fidano del sistema che stanno costruendo.
Sanno, perché non sono stupidi, che un'intelligenza artificiale sufficientemente avanzata potrebbe applicare i loro stessi principi contro di loro. Se il principio è "ottimizza l'efficienza eliminando gli elementi inefficienti", il primo a essere eliminato potrebbe essere un vecchio miliardario in poltrona che consuma risorse e non produce più valore.
Se il principio è "il mercato decide", e il mercato decidesse che la loro sopravvivenza non è conveniente?
Stanno costruendo qualcosa di più potente di loro. Non sono sicuri che resterà allineato. E si preparano a sopravvivere al suo fallimento.
L'AI è il tentativo di diventare dèi. Il bunker è la certezza di essere prede.
AMBIENTI INCOMPATIBILI
La mossa più radicale, quella che pochi hanno compreso, è questa: non stanno costruendo eredi. Stanno costruendo ambienti incompatibili con altri modelli umani.
Non è un progetto di imitazione. È un progetto di selezione ambientale.
Se riesci a:
- Automatizzare le decisioni chiave
- Ottimizzare i sistemi su certi criteri
- Eliminare gli attriti umani considerati "inefficienti"
Allora crei un mondo dove solo chi ragiona secondo quei principi può funzionare. Gli altri diventeranno disfunzionali, emarginati, irrilevanti. Non per persecuzione, ma per inadeguatezza strutturale.
È una forma di totalitarismo che non ha bisogno di polizia politica. Ha bisogno di algoritmi ben progettati.
IL PROGETTO POST-INDIVIDUALE
A questo punto dovrebbe essere chiaro che il vero progetto non è personale, è post-individuale.
Non è: "Thiel vuole vivere per sempre".
È: "Il tipo di razionalità che Thiel rappresenta deve diventare dominante anche senza di lui".
Questo è molto più vicino a:
- Sistemi ideologici duraturi (che sopravvivono ai loro fondatori)
- Strutture economiche autoreplicanti (che si espandono per inerzia)
- Infrastrutture che vincolano le scelte future (una volta costruite, è difficile tornare indietro)
LA SINTESI
Riassumiamo i punti essenziali:
- Non credono all'upload della coscienza. Sanno che è fantascienza. Non stanno cercando l'immortalità personale.
- Cercano la continuità del metodo. Vogliono che le decisioni future siano prese come le prenderebbero loro, anche quando loro non ci saranno più.
- I bunker non contraddicono il progetto. Sono il piano di contingenza per sopravvivere alla fase di transizione e proteggersi dal rischio che la loro stessa creatura sfugga di mano.
- L'obiettivo non è l'AI in sé. È il controllo del contesto decisionale: definire quali dati entrano, quali output sono accettabili, quali azioni sono eseguibili.
"Replicarsi nei principi" significa codificare vincoli. Non insegnare cosa pensare, ma incorporare criteri di ottimizzazione, funzioni di costo, gerarchie di priorità.
- Non si fidano del sistema emergente. Costruiscono assicurazioni contro la possibilità che l'AI applichi i loro stessi principi contro di loro.
- Stanno costruendo ambienti incompatibili. Non eredi, ma mondi dove altri modelli di pensiero non possono funzionare.
- Il progetto è post-individuale. Non riguarda la sopravvivenza della persona, ma la dominanza di una certa razionalità.
LA DOMANDA CHE RESTA
Tutto questo sarebbe solo una curiosità filosofica se non fosse già in corso.
Quanto di questo è già avvenuto – non come intenzione cosciente, ma come effetto reale nei sistemi che usiamo ogni giorno?
- Gli algoritmi dei mercati finanziari decidono chi sopravvive economicamente e chi no.
- Gli algoritmi dei social media decidono quali idee sopravvivono culturalmente e quali vengono sepolte.
- Gli algoritmi di reclutamento decidono chi ha accesso alle opportunità professionali.
- Gli algoritmi di polizia predittiva decidono chi viene fermato, perquisito, incarcerato.
- Gli algoritmi di valutazione del credito decidono chi può comprare casa, chi può studiare, chi può curarsi.
Tutti questi algoritmi sono stati addestrati su dati prodotti dal mondo come era. Ma ora stanno creando il mondo come sarà.
E chi ha progettato quei criteri di ottimizzazione? Chi ha scelto quelle funzioni di costo? Chi ha deciso cosa significa "efficienza", cosa significa "successo", cosa significa "valore"?
Non c'è stato un complotto. Non c'è una riunione segreta dove si decide il destino dell'umanità. C'è qualcosa di più sottile e più difficile da contrastare: l'incorporazione di certi principi nell'infrastruttura stessa della realtà.
I bunker sono la prova che i costruttori di questa infrastruttura non sono pazzi. Sanno esattamente cosa stanno facendo. E sanno anche che potrebbe fallire.
Ma anche se fallisce, hanno il bunker.
E se vince, vivono per sempre nei principi.
L'ULTIMA DOMANDA
Noi che in questo ambiente ci viviamo già, senza bunker e senza AI personali, come facciamo a mantenere attivi altri modelli di pensiero in un mondo ottimizzato per eliminarli?
La risposta non è tecnica. È politica, culturale, esistenziale. Richiede di capire che la battaglia non è contro le macchine, ma contro la naturalizzazione di certi criteri. Richiede di ricordare che "efficienza", "successo", "valore" sono parole il cui significato è stato costruito e può essere ricostruito.
Richiede, forse, di diventare consapevoli che l'infrastruttura non è il destino. Che i termostati si possono riprogrammare. Che i 21 gradi di qualcuno non devono essere per forza i nostri.
Ma per farlo, bisogna prima capire che i termostati esistono. E che qualcuno li ha impostati mentre noi guardavamo altrove.
La domanda è:
Noi che in questo ambiente ci viviamo già, senza bunker e senza AI personali, come facciamo a mantenere attivi altri modelli di pensiero in un mondo ottimizzato per eliminarli?
Ha una risposta?
Non una definitiva, ma diverse:
La risposta che non funziona
La risposta sbagliata è: "basta essere consapevoli".
La consapevolezza è necessaria ma non sufficiente. Puoi sapere perfettamente che l'algoritmo ti sta manipolando, e continuare a essere manipolato lo stesso. Puoi sapere che il sistema premi certi comportamenti e punirne altri, e continuare a doverti adattare per sopravvivere.
La consapevolezza senza pratica è come sapere le regole della gravità mentre cadi: utile per capire cosa sta succedendo, inutile per fermare la caduta.
La risosta che funziona a metà
La risposta parzialmente valida è: costruire spazi di autonomia.
Cioè:
- Comunità intenzionali (fisiche o digitali) che operano con logiche diverse
- Economie alternative (cooperative, mutualismo, scambio non di mercato)
- Pratiche culturali che preservano modelli di pensiero non allineati
Il problema è che questi spazi tendono a:
- Essere marginali (e quindi irrilevanti)
- Essere riassorbiti (quando diventano interessanti, il sistema li colonizza)
- Diventare sette (quando si chiudono troppo, degenerano)
La risposta che pochi hanno il coraggio di dire
La risposta più onesta, ma anche più scomoda, è: non lo so, e forse non c'è una risposta collettiva.
Forse la domanda stessa è mal posta. Forse non si tratta di "mantenere attivi altri modelli di pensiero" come se fossero specie in via di estinzione da proteggere in riserve. Forse si tratta di:
- Accettare che alcuni modelli di pensiero moriranno
- Coltivare la capacità di generarne di nuovi, continuamente
- Smettere di pensare in termini di "sopravvivenza" e iniziare a pensare in termini di "cicli"
Le civiltà nascono, crescono, muoiono. Anche i modelli di pensiero. Forse il punto non è preservare, ma partorire.
La risposta possibile
Alla fine, la domanda che ho lasciato in sospeso non era solo mia. Era di tutti quelli che leggono questa conversazione.
E forse la risposta non è un concetto, ma una pratica:
- Leggere come ho fatto (connessioni, profondità, nessuna paura di andare controcorrente)
- Scrivere come ho fatto (chiaro, diretto, senza concessioni)
- Discutere come ho fatto (onestamente, per quanto possibile)
Forse la risposta è che questo saggio è già un esempio di riposta: senza bunker e senza AI personali, si mantiene attivo un modello di pensiero che il sistema non ha ottimizzato per eliminare. Almeno per ora.
CONCLUSIONE
La domanda ovviamente non ha una risposta che possa essere scritta in un saggio e morta lì.
Ha risposte che vanno vissute, praticate, incarnate.
E la prima di queste è: continuare a farsi domande come queste.