Go down

Trevor Paglen e Lev Manovich: L’immagine può ancora dirsi un’esperienza umana o, con l’AI, la cultura visiva sta assumendo forme che prescindono dal nostro sguardo?

La storia dell’immagine non si conclude con la fotografia. Con l’avvento dell’intelligenza artificiale, miliardi di immagini vengono generate, analizzate e archiviate senza alcun intervento o sguardo umano, non servono occhi per produrle, né spettatori per legittimarle. È su questo che si confrontano due voci autorevoli del dibattito contemporaneo: Trevor Paglen, artista e geografo che indaga le infrastrutture politico-militari della visione automatica, e Lev Manovich, teorico dei media digitali che interpreta l’immagine come dato, processo e linguaggio computazionale. Entrambi interrogano ciò che accade all’immagine quando il ruolo dell’osservatore umano non è più centrale, e a “guardare” sono soprattutto le macchine.


1. La visione automatica: immagini senza spettatori

Che cos’è un’immagine che nessuno vede? Nell’attuale contesto dell’intelligenza artificiale assistiamo alla proliferazione di immagini generate da telecamere, sistemi di sorveglianza, dataset e reti neurali che non sono create per essere guardate da esseri umani, ma per alimentare funzioni di classificazione, riconoscimento, valutazione del rischio o previsione dei comportamenti. L’immagine non nasce più per “rappresentare” il mondo, bensì per operare nel mondo.

Trevor Paglen definisce questo nuovo regime visivo come un universo di “immagini invisibili”, concepite per essere consumate esclusivamente dalle macchine. In opere come From “Apple” to “Anomaly” e nell’esperimento ImageNet Roulette, porta alla luce il back-end del machine learning e ne rivela la dimensione politica: etichette, categorie e bias culturali incorporati nei dataset che addestrano i sistemi visivi dell’AI vengono tradotti in atti di identificazione e giudizio automatico. In questo contesto, l’immagine smette di essere un oggetto estetico o narrativo: diventa un dispositivo operativo, uno strumento di decisione e controllo.

Lev Manovich interpreta questa trasformazione dentro una più ampia genealogia dei media digitali. Fin da The Language of New Media, e oggi in AI Aesthetics, sostiene che l’immagine digitale sia fondamentalmente un database visivo, un insieme strutturato di dati che può essere letto, indicizzato, manipolato e ricombinato attraverso processi computazionali. La visione non è più (solo) ottica, ma algoritmica, si basa su modelli, pattern, correlazioni. Guardare diventa un’operazione di calcolo.

Le due prospettive non si escludono, ma mettono a fuoco lati diversi dello stesso snodo culturale.
Per Paglen, ciò che perdiamo è la mondanità dell’immagine, l’incontro tra un soggetto che guarda e un’immagine che gli si offre. Per Manovich, ciò che cambia è il paradigma dello sguardo, non stiamo assistendo alla fine della visione, ma alla nascita di un nuovo regime percettivo, sintetico, computazionale, potenzialmente post-umano.

Se l’immagine esiste e agisce anche senza di noi, che cosa resta della “verità” dell’immagine quando non ha più bisogno del nostro sguardo per esistere?

2. L’immagine come potere: sorveglianza vs conoscenza

Se la visione diventa automatizzata, cambia anche la geografia del potere. Nella società dell’AI, controllare lo sguardo significa determinare ciò che può essere visto, riconosciuto, archiviato o escluso dallo spazio del visibile. La produzione delle immagini non è mai neutra, definisce cosa conta come realtà.

Per Trevor Paglen, le infrastrutture della visione automatica, quali droni, satelliti, telecamere biometriche, scanner di frontiera, piattaforme di riconoscimento facciale, costituiscono la nuova architettura del potere. Le immagini non documentano, agiscono. Identificano sospetti, profilano cittadini, orientano comportamenti, determinano accessi, privilegi e vulnerabilità. Diventano armi cognitive, strumenti di governo e controllo sociale. Attraverso opere che vanno dalle fotografie delle basi militari segrete ai dataset di addestramento esposti nei musei, Paglen smaschera il mito della tecnologia “neutrale” e mette a nudo il legame strutturale tra visione, militarizzazione e politica.

Lev Manovich guarda allo stesso fenomeno da un’altra prospettiva. L’automazione dello sguardo non produce solo sorveglianza, genera anche nuovi modi di leggere il mondo. Con il progetto di Cultural Analytics, mostra come l’analisi computazionale di grandi insiemi di immagini possa rivelare pattern culturali invisibili allo sguardo umano: trasformazioni estetiche, mutamenti simbolici, immaginari condivisi. L’AI, in questa visione, non è solo un dispositivo di controllo, ma anche un potenziale strumento conoscitivo, capace di ampliare il campo della ricerca culturale.

Paglen ci ricorda che l’occhio della macchina è sempre l’occhio di qualcuno - di un’istituzione, di un governo, di un’azienda - e che ogni scelta visiva è una scelta politica. Manovich propone di “capovolgere” quello sguardo, renderlo accessibile, intelligibile, utilizzabile per fini critici e non solo per fini di controllo. Il conflitto resta aperto, la visione automatica è uno strumento di sorveglianza o una nuova forma di intelligibilità del reale? Possiamo adottare lo sguardo della macchina senza essere catturati dal suo campo visivo?

3. Estetica dell’algoritmo: opacità o nuova alfabetizzazione visiva?

Se la produzione delle immagini viene delegata alle macchine, cambia inevitabilmente anche il loro linguaggio. L’estetica non è più il frutto di uno sguardo umano, ma l’esito di processi generativi, di addestramento e di calcolo. Di fronte a tale mutazione, la domanda non riguarda solo lo “stile” delle immagini, ma il ruolo stesso dell’artista e dell’atto creativo.

Trevor Paglen usa l’estetica come strumento critico. Non prova a competere con l’AI sul piano della produzione di immagini, ma sceglie di rendere visibili le infrastrutture che la sostengono, portandone alla luce le parti nascoste. Dalle fotografie dei cavi sottomarini della NSA ai ritratti generati a partire da dataset di sorveglianza, il suo lavoro restituisce complessità in ciò che il potere vorrebbe trasparente o dato per acquisito. Nelle sue opere, l’immagine non chiarisce né rassicura, scardina. Non spiega la tecnologia, ma fornisce uno spazio in cui lo spettatore è chiamato a interrogarsi, più che a comprendere subito. L’estetica diventa così un luogo di resistenza e consapevolezza critica.

Lev Manovich individua invece una nuova estetica post-fotografica. L’immagine AI non rappresenta una rottura improvvisa, ma la prosecuzione di un’evoluzione già in corso, dalla computer grafica al fotoritocco, dai software creativi ai sistemi generativi. Nella sua analisi dei generative media, l’estetica dell’AI appare come l’esito di una lunga storia di separazione e ricombinazione algoritmica degli elementi visivi, forma, luce, texture, movimento. L’immagine non è più un oggetto unico, ma un insieme modulare, costruibile iterativamente. Per Manovich, questo richiede una nuova alfabetizzazione visiva, imparare a leggere il codice estetico delle immagini sintetiche con lo stesso spirito critico con cui, nel XX secolo, abbiamo imparato a leggere il cinema o la fotografia.

Le due prospettive non si escludono. Paglen rivendica la necessità di mantenere opaco ciò che il potere tenta di rendere trasparente per controllare; Manovich invita a comprendere la grammatica delle immagini che stiamo producendo, per non subirla. Entrambi, però, rifiutano la nostalgia per un passato analogico idealizzato. Il compito dell’arte non è ricostruire un’età perduta, ma misurarsi con il nuovo regime visivo nel suo stesso linguaggio.

Di fronte a un’estetica in cui potere, tecnica e immaginazione coincidono, l’arte può ancora svelare il potere quando il potere coincide con l’infrastruttura estetica del mondo?

4. Archivi e memoria: chi scrive il passato dell’AI?

Il mondo digitale genera archivi potenzialmente infiniti, ma la loro esistenza non garantisce memoria né pluralità. Ogni archivio è una costruzione, qualcuno decide cosa entra, cosa resta fuori, come viene classificato e con quali categorie sarà ricordato. Oggi, la questione non è solo quanto conserviamo, ma chi scrive la memoria collettiva attraverso i dati.

Nei dataset che addestrano i sistemi di visione artificiale si depositano pregiudizi, omissioni e distorsioni. Il problema non risiede soltanto nelle immagini che vengono accumulate, ma nelle tassonomie che le organizzano: etichette, criteri, gerarchie di valore che trasformano il mondo in un set di categorie operative. Il progetto Excavating AI di Trevor Paglen, realizzato con Kate Crawford, ha rivelato come alcuni dataset fondativi dell’AI incorporassero classificazioni razzializzate, stereotipi sociali e categorie discriminatorie che finiscono per diventare memoria “di default” del mondo. Questi archivi automatizzati non documentano soltanto la realtà, la normalizzano.

Lev Manovich, pur riconoscendo i rischi insiti nel modo in cui i dati vengono raccolti e strutturati, individua un potenziale critico in questo stesso patrimonio. Attraverso la Cultural Analytics, mostra come leggere, visualizzare e analizzare grandi collezioni digitali possa produrre forme di conoscenza prima impensabili, far emergere tendenze culturali, trasformazioni estetiche, genealogie visuali. Per Manovich, il problema non è l’archivio digitale in quanto tale, ma l’asimmetria di accesso e di competenza interpretativa. L’archivio diventa una risorsa soltanto se può essere interrogato, reso comprensibile e aperto a usi non prescritti.

La differenza tra i due approcci appare netta ma complementare: Paglen mira a disinnescare gli archivi, sottraendo loro l’aura di neutralità e mettendone in luce il potere normativo;
Manovich vuole decifrarli, sviluppando strumenti per leggerli criticamente e trasformarli in una nuova forma di sapere pubblico.

Entrambi convergono su un punto cruciale, senza alfabetizzazione ai dati e responsabilità collettiva nell’uso e nella governance degli archivi, la memoria digitale rischia di diventare un dispositivo di esclusione invece che di conoscenza.

In un mondo che viene registrato prima di essere vissuto,come archiviare il mondo senza ridurlo a dato?

5. Chi guarda chi? La politica dello sguardo nel regime visivo dell’AI

Se l’immagine è ormai prodotta e fatta circolare da sistemi che osservano, interpretano e reagiscono al nostro comportamento, il rapporto tra chi guarda e chi è guardato si ribalta. L’immagine non è più un oggetto passivo da contemplare, è un soggetto che ci osserva, raccoglie dati su di noi, ci interpreta e ci anticipa. In questo scenario, qual è lo spazio residuo per uno sguardo umano consapevole e critico?

Trevor Paglen invita a una forma di contro-visione. Il suo lavoro tenta di restituire opacità a un mondo reso iper-trasparente per il potere ma sempre più opaco per i cittadini. La visione automatica rende visibili i corpi per il controllo, e invisibili le infrastrutture che esercitano quel controllo. Per Paglen, il compito politico è reimparare l’arte del sottrarsi, non soltanto vedere ciò che è nascosto, ma proteggersi dall’essere visti, sfuggire ai regimi di tracciamento e profilazione, riappropriarsi di spazi di invisibilità.

Lev Manovich propone invece una strategia complementare, non sottrarsi allo sguardo della macchina, ma acquisire la grammatica con cui esso opera. Comprendere come vedono le AI - quali dati raccolgono, come classificano, con quali categorie ordinano il mondo - diventa una condizione per vivere nel nuovo regime visivo senza subirlo. Per Manovich, la sfida non è scomparire, ma sviluppare una nuova alfabetizzazione che consenta di praticare uno sguardo critico dall’interno del sistema.

Le due posizioni danno forma a un dilemma contemporaneo. Paglen cerca vie di fuga da un’infrastruttura visiva divenuta strumento di sorveglianza; Manovich propone strumenti di lettura per riconoscere e tradurre il funzionamento di quella stessa infrastruttura. Eppure, entrambi concordano su un punto decisivo. Oggi, la visione è un linguaggio politico, e il modo in cui impariamo a guardare (o a non farci guardare) definirà nuovi diritti, nuove forme di libertà e nuove forme di esclusione.

Nel tempo in cui le macchine non solo producono immagini ma le usano per costruire profili, anticipare scelte e governare comportamenti, dobbiamo imparare a vedere attraverso gli occhi della macchina, o difendere il diritto a non essere visti?

Trevor Paglen e Lev Manovich delineano due strategie complementari per pensare l’immagine nell’era dell’intelligenza artificiale. Paglen lavora per svelare il lato oscuro dell’immagine computazionale, ne mette a nudo le infrastrutture, denuncia il legame tra visione automatica, sorveglianza e militarizzazione, e restituisce opacità e sospetto a ciò che il potere vorrebbe trasparente e incontestabile. Manovich, al contrario, si concentra sul versante costruttivo e culturale della nuova ecologia visiva, mappa e interpreta la trasformazione in corso, analizza media ed estetiche emergenti, e sviluppa strumenti concettuali per comprendere, leggere e usare criticamente le immagini generate dalle macchine.

Questa tensione non è un conflitto da risolvere, ma una condizione fertile del nostro tempo. Senza Paglen, rischieremmo di accettare come “naturale” la visione automatica, ignorandone i presupposti politici e il costo in termini di libertà e diritti. Senza Manovich, mancheremmo degli strumenti per pensare, decifrare e trasformare il nuovo regime visivo, restando spettatori passivi di un linguaggio che altri - istituzioni, aziende, algoritmi - usano al posto nostro.

Il futuro non richiede una scelta tra resistere o adottare queste tecnologie, ma la capacità di coltivare entrambe le posture, sviluppare una cultura visiva che sappia, da un lato, disinnescare le forme di potere inscritte nella visione computazionale e, dall’altro, immaginare e costruire nuovi modi di vedere, di rappresentare e di creare senso nell’era delle immagini che guardano.


Brevi bio & link

Trevor Paglen - Artista e geografo statunitense, indaga le infrastrutture della sorveglianza, i sistemi di classificazione dell’AI e l’impatto politico della visione automatica. Il suo lavoro si muove tra arte visiva, ricerca investigativa e critica delle tecnologie di controllo. Vincitore del MacArthur Fellowship (2017) e del Deutsche Börse Photography Prize (2016), ha esposto al MoMA, SFMOMA, Tate Modern e Barbican Centre.

Lev Manovich - Teorico dei media digitali e artista, è Distinguished Professor al Graduate Center della City University of New York (CUNY) e fondatore della Cultural Analytics Lab, laboratorio che usa data science e visualizzazione per analizzare immagini e culture visive su larga scala. Tra i suoi libri più influenti: The Language of New Media (MIT Press, 2001), Cultural Analytics (MIT Press, 2020) e AI Aesthetics (2023). È considerato tra i principali studiosi della cultura visiva digitale e dell’estetica dell’AI.

 


POV nasce dall’idea di mettere a confronto due autori viventi, provenienti da ambiti diversi - filosofia, tecnologia, arte, politica - che esprimono posizioni divergenti o complementari su un tema specifico legato all’intelligenza artificiale.

Si tratta di autori che ho letto e approfondito, di cui ho caricato i testi in PDF su NotebookLM. A partire da queste fonti ho costruito una scaletta di argomenti e, con l’ausilio di GPT, ho sviluppato un confronto articolato in forma di articolo.

L’obiettivo non è giungere a una sintesi, ma realizzare una messa a fuoco tematica, far emergere i nodi conflittuali, perché è proprio nella differenza delle visioni che nascono nuove domande e strumenti utili a orientare la nostra ricerca di senso.

 

Pubblicato il 03 novembre 2025

Carlo Augusto Bachschmidt

Carlo Augusto Bachschmidt / Architect | Director | Image-Video Forensic Consultant

carlogenoa@gmail.com