Ieri, ascoltando una riflessione di Massimo Chiriatti, che ringrazio, per me è una fonte di ispirazione, mi sono fermato. Diceva, più o meno, che i dati con cui addestriamo i sistemi di intelligenza artificiale sono sempre dati del passato. Così ho provato a mettere in fila due pensieri ancora approssimativi, non come tesi chiusa ma come avvio di discussione, con la speranza che possano servire a ragionare insieme, per chi vorrà entrarci.
Per secoli abbiamo pensato il futuro oscillando tra due registri opposti. Da un lato il futurum, il futuro come proiezione logica del presente: uno sviluppo lineare delle dinamiche in corso, interpretabile e prevedibile tramite analisi e calcolo. Dall’altro, l’avvento, il futuro come irruzione di qualcosa di radicalmente nuovo, una soglia che spezza la continuità e impone una decisione. Questa distinzione ha orientato per millenni la filosofia, l’etica e la politica dell’Occidente, ma oggi l’intelligenza artificiale la rende insufficiente.
L’IA sta generando un terzo regime temporale che non è propriamente un futuro, ma un presente espanso, replicato e densificato fino a saturare ogni orizzonte d’immaginazione.
L’AI non si limita a rafforzare la previsione. Sta generando un terzo regime temporale che non è propriamente un futuro, ma un presente espanso, replicato e densificato fino a saturare ogni orizzonte d’immaginazione. Il futuro sintetico, o meglio il presente espanso, non attende di accadere, né irrompe: replica, amplifica e moltiplica il presente fino a fargli occupare tutto lo spazio del pensabile. Non si tratta dell’arte di anticipare ciò che verrà, ma della capacità di organizzare il mondo in modo che solo ciò che è statisticamente probabile appaia visibile e legittimo.
Con un fraintendimento, l’AI non attraversa il futuro: attraversa lo spazio dei dati già esistenti e il presente tracciato. Il suo potere non è la saturazione del possibile, ma la sua trasformazione: seleziona le traiettorie più frequenti, le organizza come previsioni e le fa passare per l’unico orizzonte realistico. Tutto ciò che eccede il probabile diventa irrilevante e impensabile. Il tempo non viene chiuso, ma appiattito in una prigione di specchi dove ogni proiezione rimanda a ciò che è già stato.
In questo regime, la realtà perde intensità. Quando una decisione viene modellizzata come scenario prima ancora di essere presa, smette di costituire un varco e diventa un’eco. Non è che la libertà venga abolita; è che viene svuotato il momento in cui la libertà conta davvero. Se tutto è già stato simulato, l’evento non si manifesta più come apertura, ma come conferma ritardata di un calcolo. Una possibilità già assorbita dallo scenario e già digerita dal sistema. Il gesto libero non sparisce: ma arriva tardi e depotenziato, in un campo dove il suo effetto è già stato contabilizzato.
Se tutto è già stato simulato, l’evento non si manifesta più come apertura, ma come conferma ritardata di un calcolo
Ma esiste un limite che nessuna tecnologia può superare. Nei sistemi complessi, come quelli biologici, sociali, linguistici, la sensibilità alle condizioni iniziali rende ogni simulazione strutturalmente instabile. L’1% di scarto non è un errore da correggere, ma il punto in cui il sistema può cambiare natura. Il presente espanso opera esattamente su questa soglia: non la cancella, ma produce l’illusione che non esista. Costruisce un orizzonte cognitivo dove ciò che non è previsto viene vissuto come inverosimile. E quando infine accade, ci coglie impreparati. Non perché manchino i dati, ma perché stiamo disimparando a riconoscere l’evento.
Questo non è un incidente tecnico; è una trasformazione del tempo politico. In passato, le infrastrutture, ferrovie, reti elettriche, sistemi logistici, hanno sempre orientato il futuro, rendendo alcune traiettorie più probabili di altre. Ma l’AI agisce a un altro livello: opera in tempo reale, su scala micro, anticipando la scelta stessa. Non è che obblighi ma che condiziona. Il passato diventa dato, il dato diventa previsione e infine la previsione diventa infrastruttura. E l’infrastruttura invisibile ma operativa, diventa inevitabilità.
È questa la burocrazia temporale del futuro sintetico. Quando una traiettoria viene stimata al 99%, la politica abdica all’1% residuo. Ma è proprio lì, in quello scarto minimo, che abitano il rischio, l’errore, la trasformazione. Se nessuno se ne assume la responsabilità, quell’1% non diventa un varco: diventa instabilità. Non c’è salvezza nell’anomalia in sé; il tragico non nasce dalla deviazione, ma dal fatto che qualcuno sceglie di starci dentro.
Il destino algoritmico è privo di tragico non perché è duro, ma perché è impersonale.
Il destino algoritmico è privo di tragico non perché è duro, ma perché è impersonale. Nel mondo antico, il destino poteva essere assurdo, ma aveva un volto. Si potevano sfidare gli dèi, bestemmiarli, accusarli. Oggi la responsabilità è dissolta in una catena di modelli e di dati. Pochi decidono eppure le cose accadono a molti. Pochi vogliono e il mondo si modifica. È la banalità del male computazionale: ogni passaggio è tecnicamente giustificato e statisticamente neutro. Ma l’effetto complessivo non ha autore e soprattutto non ha volto.
In questa configurazione, l’AI smette di essere una tecnologia e diventa una metafisica operativa. Stabilisce ciò che esiste in base a ciò che è tracciabile e valorizza ciò che è misurabile. Assume come vero ciò che è probabile.
Tuttavia, ogni sistema che si alimenta solo di simulazioni di se stesso è destinato a collassare. Se l’AI apprende non solo dallo scibile umano ma da dati prodotti da altre AI, il sistema si avvita su sé stesso, perde contatto con la realtà, si chiude in una spirale entropica. Per sopravvivere, ha bisogno dell’esterno: dell’errore, dell’anomalia, ha bisogno dell’evento. Perche deve mettersi in discussione.
ogni sistema che si alimenta solo di simulazioni di se stesso è destinato a collassare.
Il futuro sintetico, se fosse perfetto, sarebbe un futuro morto. La perdita non è la capacità di calcolare, ma il coraggio di interrompere il calcolo quando qualcosa chiede di essere ascoltato. Inutile temere che l’AI resti bloccata nel passato, né che possa davvero attraversare tutto il possibile. Il rischio è che noi finiamo per confondere la stabilità del modello con la stabilità del mondo.
Se esiste oggi un compito politico e culturale, è questo: difendere zone della realtà che non possono essere attraversate in anticipo. Proteggere l’indecidibile e sospendere l’efficienza quando entra in conflitto con la verità. E riconoscere che non tutto ciò che è prevedibile deve essere previsto.
Il vero conflitto non è tra umano e macchina, ne cercare di capire se la AI è più o meno intelligente o simile all’uomo È tra un futuro ancora aperto, fatto di decisioni, errori, rischi e invenzioni e un futuro già venduto e già scritto da qualcun altro in qualche altra parte del mondo. E su questo conflitto, nessun algoritmo può decidere al posto nostro.
Il vero conflitto non è tra umano e macchina È tra un futuro ancora aperto, fatto di decisioni, errori, rischi e invenzioni e un futuro già venduto e già scritto da qualcun altro in qualche altra parte del mondo