Go down

L’intelligenza artificiale non pensa, governa.

Bruno Latour ci ha insegnato che la modernità si è costruita su una finzione utile, quella di separare natura e società, scienza e politica, fatti e valori. Una finzione che ha permesso di presentare molte scelte come “neutrali” o “oggettive”, quando in realtà erano già politiche, ma non dichiarate.

Oggi l’AI rende questa finzione più fragile perché mostra in modo chiaro ciò che era già presente, ovvero regole nascoste dentro ai sistemi, criteri che decidono al posto nostro, forme di potere esercitate attraverso dispositivi tecnici, senza responsabilità visibile.

In questa intervista impossibile, Latour non risponde alla domanda “che cos’è l’intelligenza artificiale?”, ma a “chi sta davvero agendo quando è una macchina a filtrare le informazioni, assegnare punteggi, classificare persone?” “Chi se ne assume la responsabilità?”


1. L’AI non è uno strumento, è potere

CAB: Perché continuiamo a definire l’intelligenza artificiale uno “strumento”? Possiamo davvero parlare di un suo uso corretto o scorretto? Chi è il soggetto che agisce quando queste tecnologie decidono?

BRUNO LATOUR: Dire che l’intelligenza artificiale è uno strumento è un modo per evitare il conflitto. Gli strumenti, per definizione, non fanno nulla da soli, si limitano a eseguire, a rispondere all’intenzione di chi li usa. È un linguaggio che assolve, perché sposta la responsabilità sull’essere umano. Ma l’AI non si comporta come un attrezzo, non attende istruzioni, ma struttura il contesto in cui si prende una decisione, filtra le opzioni disponibili, rende alcune scelte automatiche, altre impensabili. Interviene prima che qualcuno scelga, modellando il campo del possibile.

Parlare allora di “uso corretto” dell’intelligenza artificiale è una formula rassicurante, ma fuorviante. Non si tratta di imparare a usare meglio una tecnologia, si tratta di capire come quella tecnologia riorganizza spazi, relazioni, criteri. L’AI non è uno strumento che si prende in mano e si ripone nel cassetto, è un’infrastruttura che si installa nei processi di lavoro, di cura, di giustizia, di comunicazione. Una volta dentro, li modifica. E ciò che chiamiamo “uso” è già un insieme di scelte che altri hanno preso, chi l’ha progettata, chi l’ha finanziata, chi ha stabilito le priorità.

Cercare un colpevole, poi, è l’ultima illusione. Non esiste un singolo soggetto che agisce, come non esiste una singola volontà che decide. Esistono catene di deleghe, reti di responsabilità distribuite tra programmatori, dati storici, modelli statistici, interessi industriali, istituzioni pubbliche. Eppure, continuiamo a raccontarci che basta individuare l’intenzione sbagliata per correggere il sistema. È un riflesso moderno, quello di voler isolare l’errore umano. Ma qui il problema non è l’errore, ma l’architettura dell’azione. Ed è lì che dovremmo iniziare a guardare.

2. L’ impatto dell’AI, ecologico e umano

CAB: L’intelligenza artificiale viene spesso presentata come una tecnologia leggera, immateriale, quasi eterea. Ma è davvero così? Che legame ha con la crisi ecologica? Possiamo davvero sperare che ci aiuti a salvare il pianeta?

BRUNO LATOUR: L’idea che l’intelligenza artificiale sia qualcosa di astratto, che fluttua nel “cloud”, è una costruzione discorsiva molto comoda, soprattutto per chi vuole sottrarla a ogni responsabilità materiale. In realtà l’AI è una delle tecnologie più pesanti e impattanti mai realizzate. Ogni modello richiede enormi quantità di energia per essere addestrato e mantenuto, intere infrastrutture per funzionare, miniere di terre rare, fiumi di acqua per il raffreddamento dei data center, reti globali di logistica e lavoro mal pagato. Dietro ogni risposta automatica, ogni immagine generata, ogni previsione algoritmica, ci sono territori sfruttati soprattutto nel Sud globale. Parlare di AI come se fosse solo “digitale” serve a nasconderne la dimensione terrestre, cioè a disinnescarne le implicazioni ecologiche.

Il rapporto tra intelligenza artificiale e crisi climatica è lo stesso che esiste tra modernità e devastazione ambientale, un modello di razionalità che pretende di ottimizzare senza mai mettere in discussione ciò che va ottimizzato. L’AI raccoglie dati, calcola, anticipa, suggerisce scelte, ma lo fa all’interno di un sistema economico che continua a produrre diseguaglianze, estrazione, consumo e scarto. È una macchina di previsione progettata per rendere più efficiente un mondo che si sta disfacendo, non per trasformarlo.

Pensare che l’AI da sola possa “salvare il pianeta” significa restare dentro la logica della delega tecnologica, quella stessa logica che ci ha condotti fin qui. Ma la salvezza - se vogliamo usare questa parola - non è una questione di potenza di calcolo, è una questione politica, riguarda il modo in cui decidiamo chi conta, che cosa ha valore, quali attori - umani e non umani - sono legittimati a partecipare al destino della Terra. L’AI può essere parte di questa trasformazione solo se la smettiamo di considerarla una risposta automatica, e cominciamo a trattarla come ciò che è, un nodo fragile dentro una rete di relazioni materiali, sociali e planetarie.

3. Se non pensa, perché decidiamo di obbedirle?

CAB: L’intelligenza artificiale può diventare cosciente? E cosa succede alla nostra coscienza quando iniziamo a delegare sempre più funzioni cognitive alle macchine?

BRUNO LATOUR: Chiedersi se l’AI possa diventare cosciente è, in fondo, una distrazione ben confezionata, una domanda teologica travestita da questione tecnica. Non serve a comprendere la tecnologia, ma a mantenerla in uno spazio simbolico inoffensivo, quasi mistico. È irrilevante sapere se una macchina “pensa”, se non ci chiediamo cosa essa trasformi, chi modifichi, quali relazioni riorganizzi. L’intelligenza artificiale non ha coscienza perché non ha esposizione, non ha rischio ontologico, non è vulnerabile, non è esposta alla morte, al fallimento. E soprattutto, non può rispondere. Può reagire, elaborare, simulare, ma non assumere una responsabilità.

Il vero nodo, allora, non è se le macchine diventeranno simili a noi, ma quanto saremo disposti noi a diventare simili a loro. Quando deleghiamo la memoria, il giudizio, la selezione delle informazioni, non stiamo solo usando una tecnologia, stiamo adattando il nostro modo di essere al suo funzionamento. Progressivamente, ci rendiamo compatibili con operazioni che non prevedono contraddizione, che funzionano per pattern, per riconoscimento statistico, per linearità. È una trasformazione silenziosa, non ci sveglieremo un giorno circondati da robot senzienti, ma viviamo già oggi in ambienti cognitivi che scoraggiano il dubbio, la complessità, l’indecisione.

Il pericolo, quindi, non è un’AI che prende coscienza, ma un’umanità che cede la propria. Non perché smettiamo di pensare, ma perché iniziamo a credere di non dover più scegliere. L’AI promette una forma di responsabilità automatizzata, senza conflitto, senza incertezza, senza colpa. Ma è proprio lì che la politica smette di avere senso, nel sogno di una decisione perfetta, senza soggetto. Eppure è proprio dal fallimento di ogni automatismo che la politica nasce, dalla necessità di decidere dove nessuna macchina può farlo al nostro posto.

4. Governo senza rappresentanza

CAB: Ha ancora senso parlare di politica quando a decidere sono sistemi automatici? Possiamo davvero parlare di un potere algoritmico, e se sì, chi lo controlla? Qual è oggi il compito della democrazia in questo nuovo scenario?

BRUNO LATOUR: Non solo ha senso, è necessario. Parlare di politica algoritmica significa riconoscere che il potere non passa più soltanto attraverso istituzioni, leggi o rappresentanti eletti, ma anche attraverso infrastrutture tecniche che operano senza visibilità pubblica e senza contraddittorio. L’intelligenza artificiale non chiede consenso, non si presenta alle elezioni, non può essere interpellata in assemblea. Eppure decide chi riceve un prestito, chi viene sorvegliato, chi ottiene un’assistenza, chi ha accesso a un diritto. È una forma di governo che non si fonda sulla legge, ma sulla condizione tecnica. Non impone cosa fare, impone dentro quale spazio è possibile fare qualcosa.

Il problema, allora, non è solo tecnico ma profondamente politico. Chi controlla queste infrastrutture? Chi può contestarle, modificarle, fermarle? La risposta, oggi, è scoraggiante. Esistono audit, codici etici, comitati di valutazione, ma nella maggior parte dei casi manca il luogo del conflitto, cioè lo spazio in cui queste decisioni possano essere messe in discussione da chi le subisce. E senza conflitto non c’è politica, c’è solo amministrazione.

Il compito della democrazia, oggi, non è inseguire l’illusione di una “buona intelligenza artificiale” che si autoregola nel rispetto dei valori umani. È molto più concreto, e più difficile creare le condizioni perché queste tecnologie diventino discutibili, rallentabili, esposte al giudizio collettivo. Non si tratta di chiedere all’AI di essere giusta, ma di costringerla a rispondere. Perché la democrazia, come Latour ha sempre ricordato, non è sinonimo di efficienza. È l’arte della frizione, del rallentamento necessario per poter decidere insieme.

5. Io credo …

CAB: L’intelligenza artificiale sta davvero mettendo in crisi la verità? Viviamo in un’epoca in cui tutto sembra relativo, manipolabile, sfuggente. In questo scenario, ha ancora senso parlare di critica?

BRUNO LATOUR: Più che mettere in crisi la verità, l’AI svela che la verità non è mai stata un fatto puro, autoevidente, automatico. Mostra che ciò che consideriamo vero ha sempre richiesto lavoro, fiducia, istituzioni che lo custodissero e lo rendessero stabile nel tempo. I fatti, da soli, non bastano. Hanno bisogno di una rete di attori - umani, tecnici, culturali - che li sostengano e li rendano riconoscibili. L’AI rende visibile la vulnerabilità di questo sistema, non perché lo distrugge, ma perché accelera e moltiplica i punti di crisi nei media, nell’informazione, nel sapere scientifico, nella memoria pubblica.

Non siamo però immersi in un relativismo assoluto, dove tutto vale uguale. È una falsa opposizione. Dire che la verità è costruita non significa che sia finta o arbitraria, ma che è il frutto di una cura costante, di pratiche collettive, di impegno condiviso. È qualcosa che può rompersi, e proprio per questo va mantenuta. In questo senso, chi mina la fiducia nelle istituzioni della conoscenza senza proporre alternative solide non sta facendo critica, sta solo rendendo il potere più difficile da vedere.

Il ruolo della critica, oggi, non può limitarsi a smascherare o decostruire. Deve assumersi la responsabilità di custodire ciò che, pur essendo costruito, è essenziale alla vita comune. E se qualcosa può rompersi, allora va anche difeso. La verità non è un’idea da proteggere in astratto, è un insieme di pratiche fragili che vanno tenute vive. Per questo la critica, oggi più che mai, è un gesto di cura.

Breve bio

Bruno Latour (1947–2022) è stato filosofo, antropologo e sociologo francese, tra i pensatori più influenti negli Science and Technology Studies (STS). Ha elaborato l’Actor–Network Theory, una prospettiva che mette in crisi la separazione tra natura e società, umano e non umano, ridisegnando le basi della modernità occidentale. Professore a Sciences Po e al London School of Economics, ha curato mostre come Making Things Public e contribuito a un ripensamento profondo della relazione tra scienza, politica ed ecologia. Tra le sue opere fondamentali: Laboratory Life, Science in Action, We Have Never Been Modern, Politics of Nature, Reassembling the Social e Facing Gaia. Ha ricevuto il Premio Holberg (2013) e il Kyoto Prize (2021). Il suo pensiero continua a offrire strumenti critici per comprendere le crisi del nostro tempo e immaginare forme inedite di coabitazione planetaria.


POV nasce dall’idea di mettere a confronto due autori viventi, provenienti da ambiti diversi - filosofia, tecnologia, arte, politica - che esprimono posizioni divergenti o complementari su un tema specifico legato all’intelligenza artificiale.

Si tratta di autori che ho letto e approfondito, di cui ho caricato i testi in PDF su NotebookLM. A partire da queste fonti ho costruito una scaletta di argomenti e, con l’ausilio di GPT, ho sviluppato un confronto articolato in forma di articolo.

L’obiettivo non è giungere a una sintesi, ma realizzare una messa a fuoco tematica, far emergere i nodi conflittuali, perché è proprio nella differenza delle visioni che nascono nuove domande e strumenti utili a orientare la nostra ricerca di senso.

 

 

Pubblicato il 08 febbraio 2026

Carlo Augusto Bachschmidt

Carlo Augusto Bachschmidt / Architect | Director | Image-Video Forensic Consultant

https://independent.academia.edu/CABachschmidt