Chi può dire oggi cos'è "vero"?
Le tecnologie di intelligenza artificiale generativa – in particolare quelle basate su GAN (Generative Adversarial Networks) – hanno dato vita a delle immagini che possono essere create senza alcun legame con la realtà empirica, ma in grado di convincere il nostro cervello come se fossero autentiche. L’occhio, che ci ha sempre garantito un accesso diretto alla conoscenza visiva, oggi viene aggirato, superato, forse addirittura tradito.
Che cosa vediamo, quando vediamo? E soprattutto: chi decide cosa possiamo vedere?
Non è solo una questione tecnica, ma politica, culturale, epistemologica. L’intelligenza artificiale non genera solo immagini, genera mondi. E in questi mondi simulati, spesso più coerenti e attraenti del reale, la nozione stessa di verità perde di significato.
Come se fosse vero
Francesco D'Isa ha offerto una riflessione profonda sul ruolo e la natura delle immagini nella nostra epoca digitale. Secondo D’Isa, le immagini non sono semplicemente “finestre sul mondo” che ci mostrano la realtà in modo oggettivo, ma “specchi deformanti” che riflettono interpretazioni, costruzioni e manipolazioni[1]. Ogni immagine, anche quella apparentemente più realistica, è il risultato di una costruzione soggettiva e culturale. Non esiste un’immagine “neutra” o “pura” della realtà: ogni fotografia, dipinto o video è mediato da scelte di inquadratura, luce, contesto e intenzione. D’Isa sottolinea che questa consapevolezza è fondamentale per sviluppare uno sguardo critico nei confronti delle immagini, soprattutto nell’era digitale, dove la quantità e la velocità di produzione visiva sono senza precedenti. Le AI non “fotografano” il mondo, ma generano immagini plausibili e credibili, create da algoritmi che combinano dati e modelli appresi. Questo processo avviene su scala industriale, con una velocità e una quantità di produzione che superano di gran lunga quella umana, e in modo spesso opaco, cioè senza trasparenza sulle modalità di creazione e sulle fonti utilizzate. Il problema non è che ci siano immagini false. È che non sappiamo più cosa significhi una immagine vera.
Come in Matrix, non ci viene mostrata la realtà, ma una sua proiezione elaborata, ottimizzata, potenziata. Una simulazione perfetta, pensata per sostituirsi all’esperienza stessa. Come nel film, anche noi oggi potremmo chiederci: questa immagine che sto guardando… è reale? È frutto del mio mondo, o del codice di qualcun altro? Nel film dei Wachowski, il protagonista può scegliere se restare nella simulazione rassicurante o affrontare la realtà. Anche nella nostra contemporaneità digitale, l’unica forma di resistenza è la consapevolezza.
Politiche del visibile
Le implicazioni giuridiche, etiche e cognitive sono enormi. Se non possiamo più fidarci di una foto, di un video, di una registrazione, cosa resta delle prove? Nel diritto penale, come nella storia e nel giornalismo, la “verità visiva” ha sempre avuto un ruolo centrale. Ma oggi può essere fabbricata, duplicata, manipolata. E se tutto può essere generato, chi risponde della simulazione?
Paolo Benanti propone un approccio innovativo per affrontare le sfide poste dall’intelligenza artificiale e dai processi decisionali automatizzati, l’algoretica[2]. Questa disciplina nasce con l’obiettivo di interrogare e rendere trasparenti i meccanismi e le intenzioni che si nascondono dietro i codici algoritmici, riconoscendo che l’AI non è mai neutrale. Come ogni strumento tecnico, l’intelligenza artificiale può essere utilizzata per creare “verità”, cioè rappresentazioni affidabili e utili della realtà, oppure per generare inganno, manipolazione e disinformazione. Benanti evidenzia che la questione centrale non è solo tecnica, ma profondamente politica: chi ha il potere di controllare gli algoritmi determina quali informazioni diventano visibili e quali restano nascoste. Stabilire chi decide cosa è visibile e cosa deve rimanere invisibile significa affrontare temi di governance digitale, trasparenza e partecipazione democratica.
Governare l’immaginario
Secondo Luciano Floridi, oggi viviamo in un ambiente dove il confine tra online e offline non esiste più. Tutto fa parte della stessa realtà, che lui chiama infosfera[3]. Con l’avvento dell’intelligenza artificiale generativa, questa realtà si complica ulteriormente. Floridi sostiene che le immagini create dall’AI non si limitano più a rappresentare passivamente il mondo esterno, come facevano le fotografie o i video tradizionali. Al contrario, esse diventano pezzi di realtà attivi, capaci di influenzare direttamente le nostre emozioni, i nostri pensieri e i nostri comportamenti. In pratica, queste immagini generate artificialmente non si limitano a mostrare qualcosa, ma intervengono nella realtà, modificando la percezione che abbiamo del mondo e agendo come agenti di trasformazione sociale e culturale. Questo crea una spaccatura più profonda rispetto a ciò che è reale e ciò che è simulato, tra esperienza “naturale” e costruzione artificiale.
Ecco perché Yuval Noah Harari, già nel 2023, ha dichiarato che le AI generative sono le prime tecnologie capaci di scrivere narrazioni più persuasive di quelle umane[4]. Harari afferma che le AI generative hanno hackerato il sistema operativo della civiltà umana, ovvero la capacità di manipolare e generare linguaggio, storie e immagini, che è alla base della cooperazione e dell’organizzazione sociale degli esseri umani. La narrazione, per Harari, è sempre stata il fondamento del potere umano: la nostra specie si è evoluta grazie alla capacità di creare miti condivisi, religioni, ideologie e strutture sociali basate su storie credute collettivamente. Le AI generative, grazie alla loro abilità di produrre narrazioni su vasta scala e in modo personalizzato, possono superare la persuasività delle narrazioni umane tradizionali, influenzando opinioni, emozioni e comportamenti di milioni di persone contemporaneamente. Harari avverte che chi controlla queste tecnologie non domina solo il flusso dell’informazione, ma può plasmare la coscienza collettiva, ovvero la percezione condivisa della realtà, i valori e le credenze di intere società.
Pensiamo alla concentrazione nelle mani di poche aziende globali: OpenAI, Google DeepMind, Meta, Anthropic, Microsoft. Non solo controllano l’infrastruttura, ma anche i limiti, le regole, la direzione dell’immaginario. Non solo è una nuova forma di governance economica, ma anche culturale invisibile, in cui la forma dell’immagine diventa il contenuto del potere.
Rieducare lo sguardo
Per affrontare questa nuova “realtà2 sociale, economica e culturale, la risposta non può essere solo normativa o tecnica. Serve una nuova alfabetizzazione visiva - non solo per usare gli strumenti, ma per comprenderli. Per decodificare il messaggio che ogni immagine porta con sé, anche quando è artificiale. Perché ogni pixel, oggi, può contenere un’intenzione politica, un bias, una strategia.
Andrea Colamedici propone di riscoprire la lentezza come una forma di pensiero radicale e di resistenza culturale in un'epoca dominata dalla velocità del feed digitale. Egli invita a interrompere il flusso continuo e frenetico di informazioni per porci una domanda fondamentale: a cosa sto credendo, mentre guardo[5]? Questa riflessione nasce dalla consapevolezza che la rapidità con cui scorriamo contenuti digitali spesso ci impedisce di esercitare uno sguardo critico e consapevole. Colamedici sottolinea che la lentezza non è semplicemente un rallentare i tempi, ma un modo per recuperare la capacità di riflettere, mettere in discussione e scegliere attivamente ciò che assorbiamo. In questo senso, allenare la lentezza diventa un atto di libertà e di autonomia intellettuale, una risposta necessaria alla sovrabbondanza e alla superficialità dell’informazione digitale. Interrompere il flusso significa quindi non lasciarsi trascinare passivamente dal flusso dei contenuti, ma prendersi il tempo per interrogare le narrazioni che ci vengono proposte, riconoscendo le ideologie, i valori e le manipolazioni che possono nascondersi dietro le immagini e i testi che consumiamo.
Questa prospettiva si inserisce in un dibattito più ampio sull’importanza dello sguardo critico nell’era delle tecnologie digitali e dell’intelligenza artificiale, tema affrontato anche da Harari e Francesco D’Isa, che evidenziano come la capacità di interrogare la realtà e le narrazioni sia fondamentale per preservare la libertà individuale e collettiva
Come nel momento in cui Neo, in Matrix, sceglie la pillola rossa, anche noi possiamo scegliere di imparare a vedere davvero. Sapendo che ciò che vediamo non è mai la realtà “pura”, ma una sua interpretazione, filtrata dai nostri sensi, dal linguaggio e dalle narrazioni che ci circondano. Scegliere di “vedere davvero” significa accettare che ogni visione è parziale e che la verità non è mai definitiva. Come la pillola rossa di Neo, il dubbio è ciò che ci permette di non accontentarci delle apparenze. Il dubbio non è una debolezza, ma una forza, ci spinge a interrogare ciò che ci viene presentato come vero, a non fermarci alla superficie, perché la “verità” non è un dato oggettivo da scoprire, ma un processo collettivo e personale di interpretazione e confronto.
Verità come processo, non come dato certo
L’intelligenza artificiale non ci toglie umanità, al contrario, ci costringe a conoscerla intimamente, a coltivarla in forme nuove. Essere umani, oggi, significa sapere che possiamo essere ingannati, ma scegliere comunque di pensare. Non è la capacità di rispondere che ci definisce, ma la volontà di porre domande. Perché solo chi sa vedere il potere dell’immagine può scegliere di provare a restare “libero”.
Note
[1] Francesco D’Isa, La rivoluzione algoritmica delle immagini - Luca Sossella editore, Intelligenza artificiale
[2] Algor-etica: una ricerca universale
[3] La quarta rivoluzione. Come l'infosfera sta trasformando il mondo - Luciano Floridi - Libro - Raffaello Cortina Editore - Scienza e idee | IBS
[4] Yuval Noah Harari argues that AI has hacked the operating system of human civilisation
[5] Ipnocrazia, riflessioni a mente fredda con l'ideatore del progetto Andrea Colamedici | Wired Italia