Oltre il postumano computazionale di N. Katherine Hayles

Questo testo sta dentro la sfida umanistica, culturale e filosofica posta da una tecnologia che con l’Intelligenza Artificiale ha creato una nuova frontiera, quella di macchine intelligenti capaci di pensare e di toglierci sempre più spazi di autonomia cognitiva e decisionale. L’idea di questo testo è nata dalla lettura dei testi che 𝐌𝐚𝐭𝐬𝐨𝐧 𝐎𝐰𝐞𝐧 sta pubblicando sulla 𝐒𝐓𝐔𝐋𝐓𝐈𝐅𝐄𝐑𝐀𝐍𝐀𝐕𝐈𝐒 di cui è Autore fin dal varo della nave. Leggendo Owen mi è capitato di interrogarmi spesso sul perché sia un fan così poco critico del lavoro di Katherine Hayles, un’autrice, teorica e critica letteraria, da me frequentata in passato leggendo alcuni suoi libri, tra i quali How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics. Owen la cita in ogni suo testo, noncurante della sua “furia iconoclasta contro la persona come sede del flusso di coscienza”, la cita al punto da avermi convinto a studiare meglio questa autrice dalla quale mi separano idee diverse sul futuro della specie umana sulla terra e sul postumanesimo. Per scrivere questo testo mi sono semplicemente messo a navigare tra gli scaffali della mia libreria per estrarre tutti o quasi i testi da me letti di autori (Lanier, Stiegler, Morozov, Zuboff, ecc.) che con la Hayles hanno sempre avuto una posizione critica. Il risultato è un testo che mi ha permesso di evidenziare ciò che mi separa dal pensiero della Hayles e quindi anche dell’amico Matson Owen.

L’eccezione della comprensione

Forse ciò che ci scandalizza nelle macchine è che ci costringono a guardare una verità scomoda, che una grande parte della nostra conoscenza funziona senza comprensione, e che il capire non è ciò che garantisce il funzionamento del sapere, ma qualcosa di più fragile, più raro, più esigente. Dire che non tutto ciò che è saputo è anche capito non è quindi una critica all’intelligenza artificiale. È una constatazione sul modo in cui la conoscenza umana si è sempre organizzata.

Why We Can’t See the Tip of Our Own Nose

Biology and democracy in the light of politics The political organism is a fascinating creature, capable of not seeing its own nose even when it has already grown into the next room. Biology calls it sensory adaptation, politics calls it strategic blindness, and AI now polishes it into a smooth, algorithmically optimized form of not‑seeing. Everything embarrassing, personal, or long‑term disappears from consciousness faster than campaign promises after the votes are counted. Threats from the outside, on the other hand, appear in a resolution that would make a medical CT scanner jealous. The organism survives only because it ignores its own decay and celebrates it as stability. And the tip of the nose? By now it has grown to a size that requires an entire infrastructure of self‑deception to remain unseen: biological, political, and digital.

La mente bicamerale e l’intelligenza artificiale: un ritorno alle voci degli dèi

La teoria della mente bicamerale, proposta da Julian Jaynes, suggerisce che gli esseri umani antichi operassero attraverso una divisione funzionale del cervello, in cui le decisioni erano guidate da “voci” percepite come divine. Con l’avvento della coscienza moderna, questa struttura si è dissolta, lasciando spazio all’introspezione e all’autoconsapevolezza. Tuttavia, l’emergere dell’intelligenza artificiale generativa solleva interrogativi sulla possibilità di un ritorno, chiaramente metaforico, a una forma di mente bicamerale, in cui le macchine fungono da nuove “voci” esterne che influenzano il pensiero e il comportamento umano. Questo articolo esplora il parallelo tra la teoria di Jaynes e l’interazione contemporanea con l’AI, analizzando le implicazioni cognitive e culturali di questa evoluzione.

Intervista ImPossibile a Gregory Bateson (IIP #17)

Mente, natura e connessioni dell’AI Antropologo, biologo, cibernetico e filosofo del pensiero sistemico, Gregory Bateson (1904–1980) ha dedicato la sua opera a smontare la separazione tra mente e natura. Contro l’idea di una mente rinchiusa nel cervello o riducibile a un meccanismo logico, Bateson concepiva la mente come un sistema vivo di relazioni, diffuso nei circuiti che collegano organismi, ambienti, linguaggi e culture. Il suo obiettivo dichiarato era infatti «costruire un quadro di come il mondo è collegato nei suoi aspetti mentali», mostrando che il pensiero non è mai isolabile dal contesto in cui prende forma.

Ci siamo impantanati…anche con e grazie alle IA

Viviamo l’era delle macchine, della tecnolog-IA, della palude digitale. Ci sentiamo immersi in questa realtà, sempre coinvolti, in realtà vi siamo dentro, esistenzialmente impantanati. Ne deriva un senso di immobilità (si corre rimanendo sullo stesso posto), bloccati dentro un presente continuo che ha catturato la nostra attenzione, ci ha intorpidito la mente, bloccandoci dentro bolle cognitive, mettendoci al servizio di algoritmi che ci impediscono di pensare (doomscrolling), di fare delle scelte, di coltivare pensiero e immaginazione.

In difesa dell’umano

Viviamo nella complessità ma ricorriamo costantemente ad approcci binari, riduzionistici, fatti di semplici contrapposizioni, forse anche utili, sicuramente mai sufficienti. Dentro la complessità non esiste lo sguardo neutrale del soggetto, ridurre la molteplicità e l’interrelazione tra gli elementi in un giudizio binario significa ignorare che gli effetti dipendono da una miriade di variabili. Il riduzionismo può tornare utile per sviluppare un confronto, anche conflittuale, utile a chiarire le posizioni dei contendenti, ma rischia di portare a una cristallizzazione attorno a due narrazioni opposte. La polarizzazione risulta così essere intellettualmente sterile, inadeguata. Meglio stare dentro la complessità del reale, agendo senza la presunzione di essere nel giusto, per dare forza agli attrattori percepiti come capaci di far emergere nuovi possibili, diversi e de-coincidenti da quelli oggi frequentati dai più e, anche per questo, ritenuti sbagliati.

L’ultima soglia dell’Umano

Il pensiero umano, dopo millenni di interrogazione su se stesso, giunge oggi al suo limite naturale: la creazione di un’intelligenza che può analizzare, apprendere, dedurre e decidere senza il vincolo del sentire.

[còr·po]

còrpo [latino cŏrpus «corpo, complesso, organismo»]. Termine generico con cui si indica qualsiasi porzione limitata di materia. La struttura fisica dell’uomo e degli animali. Con più preciso riferimento all’uomo, è in genere considerato, soprattutto in concezioni e dottrine religiose, l’elemento corruttibile, e come tale contrapposto all’anima e allo spirito. Parte principale, sostanziale di una cosa, o la parte di mezzo, la parte più grossa. Insieme di cose simili che formano un tutto omogeneo, un gruppo. Raccolta delle opere di un autore o di opere connesse per materia. Complesso di persone che formano un organismo ben determinato in sé. (Vocabolario Treccani)

Dall’occhio umano alla visione artificiale (POV #09)

Trevor Paglen e Lev Manovich: L’immagine può ancora dirsi un’esperienza umana o, con l’AI, la cultura visiva sta assumendo forme che prescindono dal nostro sguardo? La storia dell’immagine non si conclude con la fotografia. Con l’avvento dell’intelligenza artificiale, miliardi di immagini vengono generate, analizzate e archiviate senza alcun intervento o sguardo umano, non servono occhi per produrle, né spettatori per legittimarle. È su questo che si confrontano due voci autorevoli del dibattito contemporaneo: Trevor Paglen, artista e geografo che indaga le infrastrutture politico-militari della visione automatica, e Lev Manovich, teorico dei media digitali che interpreta l’immagine come dato, processo e linguaggio computazionale. Entrambi interrogano ciò che accade all’immagine quando il ruolo dell’osservatore umano non è più centrale, e a “guardare” sono soprattutto le macchine.

Una segnalazione: Examining Popular Arguments Against AI Existential Risk: A Philosophical Analysis

Negli ultimi anni, personalità di spicco hanno affermato che l'intelligenza artificiale (IA) può avere conseguenze indesiderate con un impatto elevato, sia a breve che a lungo termine. Questi sono spesso definiti i cosiddetti "rischi esistenziali", "rischi catastrofici" o "rischi x". La preoccupazione sui rischi è anche oggetto di intenso lavoro all'interno della comunità accademica, anche per le implicazioni etiche legate allo sviluppo dell'intelligenza artificiale che sollevano interrogativi sul controllo, la governance e l'allineamento dei valori dei sistemi di intelligenza artificiale iperavanzati. Qui segnaliamo un paper pubblicato su ARXIV e aperto a tutti per la consultazione e la lettura.

Tempi di crepe

Un testo tratto dal mio ultimo libro 𝐍𝐎𝐒𝐓𝐑𝐎𝐕𝐄𝐑𝐒𝐎 -𝐏𝐫𝐚𝐭𝐢𝐜𝐡𝐞 𝐮𝐦𝐚𝐧𝐢𝐬𝐭𝐞 𝐩𝐞𝐫 𝐫𝐞𝐬𝐢𝐬𝐭𝐞𝐫𝐞 𝐚𝐥 𝐌𝐞𝐭𝐚𝐯𝐞𝐫𝐬𝐨. La vera sfida del futuro non è tecnologica, non si annida nelle intelligenze artificiali o nei metaversi, sta dentro la vita biologica e psichica reale, è rappresentata dalla comunità di persone che la abitano, dalla loro capacità di immaginare futuri e costruire il divenire attraverso la prassi. Il benessere di tutti non può nascere da algoritmi che ne quantificano misurandoli livelli di felicità e gradi di soddisfazione individuali. Nasce dall’aderenza a ideali di felicità e giustizia comuni, dalla qualità delle relazioni, dal rapporto profondo da preservare in quanto favorevole alla vita umana che si riesce a stabilire con gli altri, con la natura e con l’ambiente, dal senso che riusciamo a dare alle cose, ai fatti e alle nostre esistenze.