Go down

Timothy Morton e Massimo Chiriatti: due modi di pensare la coesistenza tra umani, macchine e pianeta

Che cosa significa parlare di intelligenza artificiale in un mondo colpito dalla crisi climatica? È solo una questione di algoritmi e sostenibilità energetica, oppure l’AI ci costringe a ripensare le categorie con cui interpretiamo la realtà, la responsabilità e il vivente? Il confronto tra Timothy Morton e Massimo Chiriatti permette di affrontare la domanda da due lati opposti: il pensiero ecologico radicale e la cultura tecnologica del limite.
Da una parte Morton, teorico dell’“iperoggetto”, dissolve le frontiere tra umano, macchina e biosfera, l’AI non è altro che un nuovo attore nella rete planetaria degli oggetti che ci precedono e ci eccedono. Dall’altra Chiriatti, economista e tecnologo, rivendica una postura umana e normativa, l’AI resta un “esecutore incosciente”, potente ma privo di semantica, che va ricondotto dentro un orizzonte etico e politico.


1. L’intelligenza artificiale come oggetto del mondo

Timothy Morton sostiene che l’intelligenza artificiale, il capitalismo globale e il cambiamento climatico appartengono alla stessa famiglia, quella degli iperoggetti. Sono fenomeni così estesi, distribuiti e complessi che nessun essere umano può comprenderli o controllarli del tutto. In questa prospettiva, l’AI non è un semplice strumento inventato dall’uomo, ma parte del sistema planetario che contribuisce a trasformare le condizioni della nostra esistenza.

Massimo Chiriatti, al contrario, l’AI è una macchina statistica, potentissima ma priva di intenzione, consapevolezza o significato. Calcola, produce, imita, prevede, ma non capisce. E proprio in questa distanza dalla nostra mente sta la sua forza, risolve problemi senza bisogno di essere intelligente nel senso umano del termine.

Le due posizioni sembrano opposte, ma condividono un punto essenziale, l’AI sta già cambiando il nostro modo di definire che cosa sia l’intelligenza. Se una macchina può generare testi, immagini o soluzioni complesse senza avere coscienza, emozioni o esperienza, allora il nostro modello di razionalità non è più sufficiente.

2. Ecologia materiale e “spazzatura semantica”

Quando parliamo di digitale tendiamo a immaginarlo come qualcosa di leggero, immateriale, quasi sospeso nell’aria.

Morton ci chiede di capovolgere questa percezione. Dietro ogni immagine generata ci sono miniere di terre rare, centri dati che consumano enormi quantità di energia, infrastrutture fisiche distribuite tra deserti, steppe e fiumi. Il digitale, insomma, è una forma di geologia contemporanea. È fatto di metalli, calore, acqua, logistica globale. L’AI non è un software astratto, ma una parte concreta del pianeta, un nuovo strato dell’ecosistema terrestre.

Chiriatti guarda allo stesso fenomeno, ma sui contenuti. Con i modelli generativi, la produzione di testi, immagini e informazioni è diventata praticamente illimitata. Il risultato è un’enorme quantità di materiale che si accumula online senza controllo. Non si tratta solo di fake news o contenuti scadenti, ma di un rumore continuo che rende più difficile distinguere ciò che è rilevante da ciò che non lo è. L’infosfera si riempie, ma non necessariamente di conoscenza.

Morton e Chiriatti parlano di due forme diverse di eccesso: un eccesso di materia, fatto di server e infrastrutture che diventano veri e propri iperoggetti; un altro, di significati, o meglio di pseudo-significati, che saturano lo spazio dell’informazione.

Il punto comune è che la crisi non è solo quantitativa, ma la fatica crescente nel trovare un orientamento. Viviamo circondati da dati, ma sempre meno capaci di coglierne il senso. Abbiamo più testi, più grafici, più contenuti e allo stesso tempo meno punti di riferimento, perciò meno capacità di comprenderlo.

3. Etica: responsabilità o abjection?

Quando si parla di etica dell’intelligenza artificiale, Massimo Chiriatti e Timothy Morton partono da due punti quasi opposti.

Per Chiriatti, il problema etico è concreto e riconoscibile. Le AI imparano dai nostri testi, dai nostri comportamenti, dai nostri dati. Se in questi materiali sono presenti pregiudizi, discriminazioni, stereotipi - e spesso lo sono - la macchina non fa altro che riprodurli e amplificarli.

Per questo, sostiene Chiriatti, non esiste un’“etica dell’AI” in senso proprio. La macchina non ha coscienza, intenzioni o responsabilità. L’unica etica possibile è l’etica dell’uso, cioè come la progettiamo, come la addestriamo, come la regoliamo.

Da qui le sue indicazioni per una trasparenza sugli algoritmi e su chi li controlla, un’inclusione nei dati e nelle scelte, audit indipendenti per verificare errori e distorsioni, e alfabetizzazione digitale per evitare che cittadini e lavoratori siano schiacciati da sistemi che non comprendono. L’etica, in questa prospettiva, resta un compito umano.

Per Morton invece il problema non è stabilire regole o procedure, perché il cuore della questione non è la governance, ma è l’abiezione. L’abiezione è quella sensazione di repulsione, di disagio, di rifiuto che proviamo quando siamo costretti a riconoscere qualcosa che contraddice l’immagine ordinata che abbiamo del mondo. Morton ci dice che l’AI - come il cambiamento climatico, come gli iperoggetti - ci mette davanti a questa verità, viviamo immersi in sistemi che non controlliamo e da cui dipendiamo.

L’ecologia oscura non chiede di “domare” l’AI, ma di accettare la nostra vulnerabilità dentro una rete di esseri e oggetti, umani e non-umani, viventi e artificiali. Accettare che anche la macchina fa parte del mondo che abitiamo. È un’etica senza consolazioni, che non punta a rassicurare ma a farci convivere con il disorientamento.

Le due visioni sembrano lontanissime: Chiriatti vuole responsabilità e norme chiare; Morton ci invita a riconoscere che il controllo totale è un’illusione. Eppure arrivano alla stessa domanda, forse la più difficile da affrontare oggi: come si può essere responsabili in un mondo che sfugge alle nostre categorie morali, che non possiamo dominare e che ci supera continuamente?

4. I limiti della conoscenza

Per Massimo Chiriatti, il punto debole dell’intelligenza artificiale è chiaro, i modelli generativi sanno imitare il linguaggio, ma non capirlo. Possono produrre frasi credibili, fluenti, persino creative, ma rimangono ciechi rispetto al significato reale delle parole. La loro intelligenza è solo statistica, prevedono la parola successiva, senza sapere nulla dell’esperienza umana che il linguaggio esprime.

Timothy Morton affronta lo stesso problema da un’altra direzione. Per lui il limite non riguarda l’AI, ma il mondo stesso. La realtà - gli oggetti, gli organismi, le relazioni - non si lascia mai conoscere fino in fondo. Ogni cosa, nella sua ontologia, è “ritirata”, si mostra in parte e nasconde in parte. Non c’è un accesso totale né per le macchine né per gli esseri umani. L’ignoranza non è un malfunzionamento, ma la condizione naturale dell’esistenza.

Mettendo insieme queste due prospettive, emerge che se sia noi che l’AI vediamo solo frammenti della realtà, Che tipo di conoscenza ci serve per orientarci? Forse una conoscenza capace di riconoscere i propri limiti, una forma di comprensione che nasce dall’incompletezza, non dalla pretesa di dominare il mondo.

5. Il futuro: governance o coesistenza?

Per Chiriatti, la direzione è chiara e molto concreta. Serve costruire una cultura digitale diffusa, perché senza competenze di base nessuna società può governare tecnologie così potenti. Occorrono audit indipendenti, capaci di controllare come funzionano gli algoritmi e con quali conseguenze. Bisogna puntare su infrastrutture tecnologiche aperte, trasparenti e verificabili. E soprattutto dobbiamo riconoscere che umano e macchina non competono, si completano. È un tecno-ottimismo vigile, che non nega i rischi ma confida nella capacità umana di valutarli e prendere decisioni responsabili.

Morton immagina invece un futuro di tutt’altro tipo. Per lui l’errore sta nell’ossessione del controllo, cercare di dominare l’AI e il pianeta è precisamente ciò che ci ha portati alla crisi ecologica. La risposta non è costruire nuove regole, ma immaginare nuovi modi di convivere. Da qui l’idea di piccoli modelli sperimentali, non autoritari, che includono non solo persone, ma anche oggetti, dati, macchine, ambienti. Una politica capace di ospitare la vulnerabilità e la pluralità del vivente, invece di ridurlo alla logica dell’efficienza.

Due prospettive che divergono nel metodo più che nel fine. Chiriatti punta sull’azione per formare, regolare, verificare, correggere. Morton punta sulla convivenza nell’accettare i limiti, ridurre la pretesa di dominio, creare spazi di sperimentazione condivisa. Il futuro dell’AI si costruisce migliorando le nostre forme di governance, oppure aprendoci a un nuovo immaginario politico capace di includere anche ciò che non è umano?


Conclusione

Il confronto tra Morton e Chiriatti mostra che l’intelligenza artificiale non è semplicemente una tecnologia da migliorare o regolamentare. È qualcosa che attraversa il modo in cui viviamo il pianeta, pensiamo la realtà e immaginiamo il futuro.

Morton ci invita a considerare che l’AI non è un oggetto esterno a noi, ma un frammento dell’immenso sistema terrestre, un “iperoggetto” che ci ingloba e ci supera. In questa prospettiva, l’AI è parte del mondo tanto quanto il clima, le infrastrutture, le sostanze che generano la crisi ecologica.

Chiriatti ci richiama alla responsabilità. Nessuna tecnologia può essere sostenibile se non viene governata, compresa, valutata nelle sue conseguenze. L’AI è potente ma “incosciente”, saremo noi, non le macchine, a determinare che cosa diventerà.

È proprio nello scarto tra queste due posizioni che si apre uno spazio nuovo. Una “ecologia del pensiero” che non cerca soluzioni definitive, perché sa che le risposte semplici non esistono. Accetta invece il conflitto tra idee diverse come condizione necessaria per orientarsi.

L’intelligenza artificiale è il sintomo della crisi che stiamo vivendo, oppure è la possibilità di immaginare un nuovo modo di abitare la Terra?


Brevi biografie degli autori:

Timothy Bloxam Morton (Londra, 1968) è un filosofo e scrittore britannico. È titolare della cattedra Rita Shea Guffey in inglese presso la Rice University. Il suo lavoro esplora l'intersezione tra il pensiero orientato agli oggetti e gli studi ecologici. È un sostenitore del cosiddetto "movimento filosofico orientato agli oggetti" (OOO). Tra i suoi concetti più noti vi sono gli Iperoggetti (Hyperobjects), entità distribuite massicciamente nel tempo e nello spazio, come il riscaldamento globale, e la teoria dell'Ecologia senza Natura (Ecology Without Nature). Ha collaborato con artisti come Björk e Laurie Anderson. Opere principali citate: Ecology Without Nature: Rethinking Environmental Aesthetics (2007), The Ecological Thought (2010), Iperoggetti. Filosofia ed ecologia dopo la fine del mondo (Hyperobjects) (2013), Dark Ecology: For a Logic of Future Coexistence (2016), Humankind: Solidarity with Nonhuman People (2017), Inferno: In Search of a Christian Ecology (2024).

🔗 https://it.wikipedia.org/wiki/Timothy_Morton

Massimo Chiriatti è Chief Technology and Innovation Officer (CTO) di Lenovo Italia. È un tecnologo ed esperto di economia digitale, con esperienza nel combinare competenze tecniche con una profonda riflessione sulle implicazioni sociali ed economiche dell’innovazione, in particolare sull'IA e il futuro del lavoro. Collabora come professore universitario a contratto con l’Università Cattolica del Sacro Cuore e l’Università Luiss. È co-autore di un articolo scientifico su GPT-3, "GPT-3: Its Nature, Scope, Limits, and Consequences," pubblicato su Springer. Ha partecipato alla stesura del Manifesto sull’Intelligenza Artificiale del 2022. Le sue analisi, anche nel libro Incoscienza Artificiale, affrontano i limiti ontologici dell'IA e il primato del giudizio umano. Opere principali citate: #Humanless. L’algoritmo egoista (2019), Incoscienza artificiale. Come fanno le macchine a prevedere per noi (Luiss University Press, 2021).

🔗 https://www.linkedin.com/in/massimochiriatti/?originalSubdomain=it


POV nasce dall’idea di mettere a confronto due autori viventi, provenienti da ambiti diversi - filosofia, tecnologia, arte, politica - che esprimono posizioni divergenti o complementari su un tema specifico legato all’intelligenza artificiale.

Si tratta di autori che ho letto e approfondito, di cui ho caricato i testi in PDF su NotebookLM. A partire da queste fonti ho costruito una scaletta di argomenti e, con l’ausilio di GPT, ho sviluppato un confronto articolato in forma di articolo.

L’obiettivo non è giungere a una sintesi, ma realizzare una messa a fuoco tematica, far emergere i nodi conflittuali, perché è proprio nella differenza delle visioni che nascono nuove domande e strumenti utili a orientare la nostra ricerca di senso.

 

 

Pubblicato il 01 dicembre 2025

Carlo Augusto Bachschmidt

Carlo Augusto Bachschmidt / Architect | Director | Image-Video Forensic Consultant