Nel 1999, N. Katherine Hayles pubblicò How We Became Posthuman, un libro destinato a diventare un testo fondamentale negli studi sulla tecnologia, sulla cibernetica e sulla relazione tra umano e macchina. La Hayles è stata tra le prime autrici ad aver affrontato organicamente il concetto di postumano nella tecnologia. La sua tesi centrale è tanto elegante quanto provocatoria. Per la Hayles non siamo diventati postumani perché la tecnologia ci abbia superato, ma perché abbiamo cominciato a pensare noi stessi come sistemi informazionali. L'informazione, sosteneva Hayles, ha perso il corpo, e noi abbiamo perso il nostro corpo con lei.
Da quel libro, Hayles ha costruito un corpus teorico impressionante, a partire dalla “technogenesis”[1] (la coevoluzione di umani e tecnologie), dagli assemblaggi cognitivi[2] (la cognizione distribuita tra umani, macchine e ambiente), dal cognitive nonconscious (forme di cognizione che non sono coscienti ma nemmeno inconsce) fino alla celebrazione della nostra condizione di esseri sempre-già ibridati con le nostre tecnologie.
Che cos’è per l’uomo la scimmia? Un ghigno o una dolorosa vergogna. Avete percorso il cammino dal verme all’uomo, e molto in voi ha ancora del verme. In passato foste scimmie. […] L’uomo è un cavo teso tra la bestia e il superuomo - F. Nietzsche, Così parlò Zarathustra, Club, Milano 1983, p. 7-8; 10.
La riflessione della Hayles si è sviluppata per lo più intorno alle forme della soggettività contemporanea in un’era caratterizzata dall’ipertestualità e da un gioco crescente di incroci tra distinti mezzi d’informazione e di rappresentazione della realtà, portati a collidere sempre più velocemente gli uni verso gli altri. Con il suo lavoro che verte sul rapporto tra coscienza[3], inconscio cognitivo e mondo fisico, la Hayles ha fornito un vocabolario teorico sofisticato, accettato da molti anche acriticamente, per pensare la relazione umano-tecnologia, andando oltre le dicotomie semplicistiche di naturale/artificiale, umano/macchina, mente/corpo. Ha sostenuto come la letteratura, la scienza e la cultura contemporanea siano profondamente intrecciate con le tecnologie dell'informazione, aprendo spazi di riflessione sul postumano e sull’umanesimo digitale che vanno oltre il transumanesimo ingenuo e il luddismo reattivo.
Detto questo c'è qualcosa di sbagliato nel progetto teorico di Hayles. Lo sbagliato è riscontrabile nel suo tradimento di ciò che si è sempre detta impegnata a proteggere, ossia la specificità irriducibile dell'esperienza umana incarnata, la differenza categoriale tra vita e non-vita, la dimensione politica ed economica delle trasformazioni tecnologiche che Hayles descrive come una coevoluzione neutrale, come se la neutralità fosse una categoria applicabile alla tecnologia attuale.
Questo testo nasce dalla constatazione che lo sviluppo attuale della tecno-scienza stia mettendo in pericolo il corpo, violando la mente umana e affidando il nostro cervello alla macchina. È un tentativo, sicuramente incompleto e limitato dalle mie probabili insufficienti conoscenze delle opere di Hayles, della quale ho letto solo alcuni libri. Il tentativo è di articolare le critiche che possono essere e sono state mosse alla teoria del postumano di Hayles. A partire dalla critica all’idea di una mente senza consapevolezza a cui riconoscere un inconscio cognitivo, come se un cellulare che mi riconosce sia anche in grado di vedermi e sia capace di fare esperienza di sé. La critica va anche alla descrizione delle macchine intelligenti (termine con il quale l’autrice intende computer, reti, macchine generative ed evolutive) come entità incarnate, che interagiscono con utenti incarnati, trasformandosi reciprocamente in misura incrementale.
"Bisogna ammettere che la coscienza non è mai mera coscienza in genere, ma sempre coscienza di qualcosa, fosse pure del fatto di essere coscienti [...] la coscienza è una facoltà emergente [...]" (Björn Larsson, Essere o non essere umani)
Nessuna intenzione, da parte mia, di negare l’importanza delle sue tesi nel favorire una riflessione necessaria sulle nuove tecnologie e sul rapporto uomo-tecnica. Il mio è un semplice tentativo di ricercare e provare ad evidenziare, in base alle mie limitate conoscenze nel merito dell’impianto teorico di Hayles, le crepe di un progetto intellettuale che mostra defaillance, a causa di un’apparente neutralità descrittiva, che maschera scelte profondamente problematiche e divisive.
Le critiche al pensiero di Hayles si originano da ambiti e tradizioni di pensiero diversi quali la fenomenologia, la filosofia della mente, la teoria critica, gli studi sull'intelligenza artificiale. Tutte queste tradizioni puntano il dito contro il fatto che la Hayles sembra aver voluto dissolvere, dentro il suo progetto teorico, differenze che contano e che non potevano al contrario non essere considerate. Nel tentativo di andare oltre l'umano, Hyales finisce per tradire ciò che rende l'umano intangibile e irriducibile. Nel tentativo di mostrare la continuità tra cognizione biologica e computazione artificiale, cancella la specificità della vita, e nel tentativo di descrivere la nostra condizione tecnologica, finisce per naturalizzare e celebrare processi che dovremmo come minimo problematizzare e poi contestare.
La corporeità è individuata, il mio proprio corpo mi individua (è il mio non il tuo), attraverso esso mi inserisco in un mondo e entro in rapporto con gli altri, per mezzo del corpo io percepisco le cose intorno a me, le ho presenti e mi ci relaziono, il mio corpo è «il mio punto di vista sul mondo»
Uno degli aspetti più controversi del pensiero della Hayles, non a caso criticato fenomenologicamente, è il problema del corpo vissuto e dell’idea che la cognizione umana possa essere ridotta a semplice computazione simbolica. Uno dei critici principali di Hayles su questo punto è stato Hubert Dreyfus, in particolare con i suoi due libri What Computers Can't Do (1972) e What Computers Still Can't Do (1992). Dreyfus (filosofo di tradizione fenomenologica), e Hayles cono entrambi critici, in modi diversi, del cognitivismo classico e delle visioni disincarnate della mente. L'argomento centrale di Dreyfus, derivato da Merleau-Ponty, è che gli esseri umani operano sempre su uno sfondo di comprensione preriflessiva del mondo che non può essere formalizzato in regole esplicite o algoritmi. Questo background non è un insieme di conoscenze implicite che potrebbero in linea di principio essere rese esplicite. È la struttura stessa dell'essere-nel-mondo, radicata nel corpo vissuto e nella sua capacità di orientarsi in situazioni concrete senza ricorrere a rappresentazioni mentali esplicite. Dreyfus difende il corpo come limite invalicabile per la macchina, l’irriducibilità dell’essere umano incarnato dalle IA e dall’idea che la cognizione umana sia riducibile alla elaborazione di regole e rappresentazioni, mentre Hayles esplora l’umano come qualcosa che si è già ibridato, trasformato in qualcosa di diverso e lo fa con curiosità critica ma non per resistere ai cambiamenti in atto.
Quando Hayles parla di assemblaggi cognitivi in cui umani e algoritmi collaborano nel processare informazione, assume che la cognizione umana sia fondamentalmente dello stesso tipo di quella algoritmica. Un po’ più complessa, più ricca, ma in linea di principio della stessa natura. Questo per Dreyfus è un errore categoriale fondamentale. Gli algoritmi operano attraverso regole esplicite applicate a rappresentazioni simboliche. Gli umani, nella maggior parte delle loro attività cognitive, non operano così. Quando un esperto di scacchi guarda una posizione, non calcola varianti secondo regole, ma vede immediatamente pattern significativi che emergono dallo sfondo della sua esperienza incarnata. Quando camminiamo, non calcoliamo traiettorie, il nostro corpo sa come muoversi nello spazio senza bisogno di rappresentazioni esplicite. La condizione di possibilità di ogni cognizione esplicita è radicata nel corpo biologico, nella sua storia evolutiva, nella sua vulnerabilità, nella sua mortalità. Non è un semplice substrato materiale per l'informazione, ma la struttura stessa del significato.
E' un fatto puramente empirico che siamo effettivamente incarnati, che le nostre percezioni e azioni dipendono dal nostro avere dei corpi e che la cognizione è plasmata dalla nostra esistenza corporea. (Shaun Gallagher)
Un altro punto di criticità riscontrato nel pensiero di Hayles si ricollega all’idea che gli algoritmi, quando sono integrati perfettamente nelle nostre pratiche, diventano trasparenti (zuhanden per usare una terminologia Heideggeriana), estensioni del nostro pensiero. In questo senso Google è trasparente così come lo è un martello. In realtà, direbbe Dreyfus, il martello diventa trasparente perché il mio corpo lo ha integrato nel suo schema corporeo, è diventato parte della mia modalità incarnata di essere-nel-mondo. L'algoritmo, anche quando è funzionalmente trasparente, resta invece opaco da un punto di vista fenomenologico. Non si sa come funzioni, non è possibile sentire il suo operare come sento il peso del martello o la resistenza del chiodo, non è integrato nel mio corpo vissuto, ma lo è solo nelle mie pratiche.
Questa distinzione legata alla trasparenza può sembrare sottile, ma è in realtà fondamentale, perché significa che anche quando umani e algoritmi collaborano perfettamente (come avviene in quelli che la Hayles chiama assemblaggi cognitivi), la natura di quella collaborazione è radicalmente diversa dalla collaborazione tra parti del mio corpo o tra me e uno strumento tradizionale. È una collaborazione tra un soggetto incarnato e un sistema opaco che simula certe funzioni cognitive senza partecipare alla struttura fenomenologica dell'esperienza. Per Dreyfus la corporeità non è un intralcio, così come la virtualità del cyberspazio non può costituire da sola un’opportunità per liberare le potenzialità illimitate della mente dalla zavorra del corpo e dai cascami dell’esistenza fisica
Di questa differenza sembra consapevole anche la Hayles quando in How We Became Posthuman, critica l'idea cibernetica che l'informazione possa esistere indipendentemente dal suo substrato materiale e come questa idea sia stata storicamente usata per giustificare fantasie di disincarnazione come l'upload della mente in un computer (il riferimento è a Moravec e alla sua idea di “liposuzione mentale” come pratica per l’esternalizzazione della mente e per l’immortalità), la liberazione dalla carne. Il suo insistere sul fatto che l'informazione è sempre incarnata in qualche substrato materiale, che sia biologico o elettronico, non risolve però il problema. Il corpo per lei continua a essere un semplice supporto per l'informazione. Un supporto necessario, non eliminabile, ma comunque sempre un supporto. Manca ogni valorizzazione di un copro vissuto che, nel pensiero fenomenologico di Husserl e Merleau-Ponty, non può essere il supporto della coscienza. Il corpo non è un oggetto nel mondo che ospita la mente, ma la struttura stessa attraverso cui il mondo appare, il punto zero dell'orientamento, la prospettiva da cui c'è un mondo.
Non possiamo esplorare il corpo di per sè stesso e successivamente esaminarlo nella sua relazione con il mondo. Il corpo è già nel mondo e il mondo ci è dato in quanto corporalmente rivelato (Husserl)
Il corpo come semplice supporto emerge nel pensiero di Hayles quando, pur nella corretta interpretazione di una cognizione distribuita tra umani, macchine e ambiente, che passa attraverso l’uso di strumenti esterni per estendere le nostre capacità cognitive, sembra sostenere che la cognizione stessa sia costituita da questi assemblaggi ibridi e che non abbia senso parlare di una cognizione umana separata dagli strumenti tecnologici. Nel fare questo la Hayles dissolve la distinzione cruciale tra il corpo come soggetto (il corpo che vive, sente, orienta) e il corpo come oggetto (il corpo come sistema informazionale che può essere accoppiato ad altri sistemi). Hayles lavora sempre al livello del corpo-oggetto, così facendo fa scomparire dalle sue analisi il corpo-soggetto, il corpo fenomenologico, il corpo vissuto.
Nelle sue analisi è come se la Hayles fosse incappata in un chiasma che non può risolvere. Il chiasma è quello di Merleau-Ponty esplorato nel suo libro incompiuto Il visibile e l'invisibile. Il termine è usato per descrivere la struttura della carne e della percezione incarnata, l'intreccio reversibile di vedente e visibile, toccante e toccato. La reversibilità chiasmatica è ritrovata dal filosofo francese nella carne, nel corpo vissuto come medium della percezione, non nel corpo oggettivo biologico e dell'anatomia. Il chiasma della carne è ciò che rende possibile la percezione. Io posso vedere il mondo solo perché il mio corpo è parte del mondo visibile, posso toccare le cose solo perché il mio corpo può essere toccato. La soggettività non è separata dal mondo, ma intrecciata con esso attraverso la carne.
In apparenza anche Hayles sembra condividere questa analisi, in realtà sembra non prendere in considerazione un pensiero fondamentale di Merleau-Ponty, ossia che la reversibilità, il chiasma sia possibile solo tra enti che condividono la carne, la materialità vivente, sensibile, reversibile. Si è intrecciati con il mondo perché il corpo è mondano, partecipa alla stessa carne del mondo. Al contrario gli algoritmi non hanno carne, non possono essere toccati e toccare, non possono vedere ed essere visti, non partecipano alla reversibilità del sensibile. Possono tracciare i miei movimenti, analizzare i miei pattern, influenzare le mie decisioni, ma non possono partecipare al chiasma perché non hanno la struttura della reversibilità che caratterizza la vita percettiva. Gli algoritmi non hanno un qui, non hanno una prospettiva incarnata. Possono processare dati da sorgenti multiple, ma non c'è un punto da cui questi dati appaiono come mondo. L'algoritmo di Google Maps può mostrarmi la città da infinite prospettive, ma nessuna di queste è la sua prospettiva. Sono tutte ugualmente disponibili, perché l'algoritmo non ha corpo, non ha un qui.
Quando Hayles parla di assemblaggi cognitivi, finisce per dissolvere questa sostanziale differenza e per trattare la prospettiva incarnata come se fosse solo una tra le molte modalità di elaborazione funzionale dell'informazione. Fenomenologicamente però la prospettiva incarnata non è una modalità tra le altre, è la condizione di possibilità di ogni apparire.
Merleau-Ponty mostra che la percezione non è la ricezione passiva di dati sensoriali che vengono poi elaborati dal cervello. La percezione incarnata è un'attività del corpo intero, un modo di abitare il mondo. Quando vedo un cubo, non vedo sei facce separate che poi assemblo mentalmente. Vedo il cubo come cubo, come oggetto tridimensionale, immediatamente. Questa sintesi percettiva non è cognitiva (non richiede un giudizio) ma è precognitiva, è la struttura stessa del corpo vissuto che sa come organizzare il campo percettivo. È vero che gli algoritmi di computer vision possono riconoscere cubi, ma lo fanno attraverso algoritmi espliciti applicati a rappresentazioni bidimensionali. Non c'è nel loro operare (funzionare) alcuna sintesi percettiva, c'è semplice computazione. Hayles sostiene che questa è solo una forma diversa di cognizione, la cognizione non cosciente dell'algoritmo verso la cognizione cosciente dell'umano. Ma Merleau-Ponty risponderebbe che la comparazione non è tra coscienza e non-coscienza, bensì tra percezione e computazione. La percezione è un modo di abitare il mondo attraverso il corpo. La computazione è manipolazione di simboli secondo regole. Chiamare entrambe cognizione è perdere la differenza che conta.
La cognizione non solo è incarnata, ma è anche situata, ed è tale perchè incarnata. La nostra esperienza cognitiva è plasmata da un cervello incarnato e i cervelli che abbiamo sono plasmati dai corpi che possediamo.
Una critica del cognitivismo computazionale, associabile al pensiero di Hayles, viene anche da pensatori come Francisco Varela, Evan Thompson ed Eleanor Rosch, in The Embodied Mind (1991) e dal concetto di enattivismo[4]. Un concetto che vede la cognizione non come rappresentazione del mondo, ma come messa in atto. Secondo la tesi centrale dell'enattivismo la cognizione emerge dall'accoppiamento strutturale tra organismo e ambiente. Non c'è un mondo pre-dato che la mente rappresenta, c'è un mondo che emerge attraverso l'attività dell'organismo. Gli algoritmi, secondo Varela e non solo, non praticano alcuna forma di enazione, si limitano a elaborare rappresentazioni secondo regole predefinite, mai in un accoppiamento strutturale ma sempre in modalità input e output.
Una critica ulteriore viene dal concetto di autopoiesi (i sistemi si auto organizzano e producono, si auto-mantengono, la cognizione è inscindibile dalla vita stessa) sviluppata da Varela insieme a Humberto Maturana. Gli algoritmi non sono autopoietici, ma prodotti dall'esterno (programmatori), mantenuti dall'esterno (server, energia elettrica), e i loro confini sono definiti dall'esterno (quali dati processano, quali output producono). Questa differenza è fondamentale perché l'autopoiesi è ciò che distingue la vita dalla non-vita. E la cognizione, per Varela, è una caratteristica dei sistemi viventi. Solo i sistemi autopoietici possono avere cognizione, perché solo loro possono avere sense-making, possono creare significato in modo attivo, attraverso il mantenimento della propria identità.
Come con il corpo, anche con l’enattivismo la Hayles sembra far proprie le tesi fenomenologiche e quelle di Varela, ma poi estende il concetto di cognizione agli algoritmi in un modo che Varela, Maturna, ecc. non avrebbero mai accettato. La cosa è evidente quando, parlando di cognizione non cosciente degli algoritmi, sembra separare la cognizione dall'autopoiesi, dalla vita, dall'embodiment biologico, e sostenere che si possa avere cognizione senza essere un sistema vivente, autopoietico, incarnato. Ma questo è esattamente ciò che l'enattivismo nega.
Le critiche al pensiero della Hayles vengono anche, sul tema della coscienza, dalla filosofia della mente, a partire dal pensiero di Searle e dalla sua critica all'idea che la mente sia letteralmente un programma computazionale. Per Searle un computer manipola simboli secondo regole formali, può sembrare intelligente dall'esterno, ma all'interno non ha alcuna comprensione, non lavora semanticamente, ma solo sintatticamente. Quella del computer, a differenza da quanto pensa Hayles, è manipolazione sintattica di simboli. La differenza non è tra cognizione cosciente e cognizione non cosciente, ma tra comprensione e simulazione della comprensione. Anche i neuroni, che potrebbero essere riportati da Hayles al loro essere semplici elementi elettrochimici, come neuroni biologici per Searle hanno poteri causali, che producono intenzionalità, comprensione, coscienza. Non sappiamo esattamente come, ma sappiamo che lo fanno. I simboli in un computer, per quanto complessi, non hanno questi poteri causali. Sono solo simboli.
Un altro elemento di differenza sta nel concetto di intenzionalità che per la mente umana è originaria, intrinseca e per l’algoritmo è sempre derivata, decisa da qualcuno che all’algoritmo ha fornito codice, logica e configurazione. Quando un algoritmo riconosce un gatto in una foto, non sta davvero pensando al gatto, sta manipolando pixel secondo pattern che noi umani abbiamo definito come corrispondenti a un animale che chiamiamo gatto. L'intenzionalità è tutta nel programmatore e nell'utente, non nell'algoritmo. Hayles dissolve questa distinzione parlando di assemblaggi cognitivi in cui l'intenzionalità è distribuita.
Tra le critiche alla Hayles, in merito alla coscienza, merita un accenno anche quella di Ned Block, autore nel 1995 del libro On a Confusion about a Function of Consciousness. Block fa una distinzione tra una coscienza in senso funzionale per la quale l’informazione è disponibile per il controllo razionale del comportamento, per il linguaggio verbale, per il ragionamento, e una coscienza dal carattere qualitativo legata all’esperienza soggettiva del rossore del rosso, del sapore del caffè, del dolore del mal di testa, ecc. Per Block le due tipologie di coscienza sono concettualmente distinte, una distinzione che la Hayles tratta come irrilevante, non fa, assegnando anche agli algoritmi la coscienza qualitativa dell’esperienza soggettiva, negando in questo modo la cosa più importante, più preziosa, più irriducibile dell'esperienza umana.
La critica più forte alla Hayles viene da Thomas Nagel che nel suo testo del 1974 What is it to be a bat?, sosteneva la tesi che la coscienza abbia un carattere soggettivo irriducibile. Lo faceva interrogandosi su cosa significasse essere un pipistrello, percependo il mondo da cieco, volando di notte o appendendosi a testa in giù, per sostenere poi che questo qualcosa tipico del pipistrello non potesse essere catturato da nessuna descrizione oggettiva del sistema nervoso del pipistrello o del suo comportamento. Dei neuroni del pipistrello potremmo conoscere tutto, ma poi esiste sempre un residuo fenomenologico irriducibile. Non sapremo mai cosa significhi essere un pipistrello a meno che non si diventi pipistrelli, cosa al momento impossibile, a meno di credere in esperimenti come quelli del film La mosca. In un algoritmo non c’è nulla che significhi essere un algoritmo, perché l’algoritmo non ha un punto di vista soggettivo. La Hayles sa che quando usa la parola cognizione lo fa a partire dal suo carattere soggettivo, applicandola agli umani, ma poi questo carattere lo estende agli algoritmi dove quel carattere soggettivo è assente. Così facendo oscura la differenza tra sistemi diversi, anche se ibridati, per cui ci sono sistemi per il quali c'è qualcosa che significa esistere (umani, animali, forse altri organismi) e sistemi per cui non c'è nulla che significhi esistere (algoritmi, rocce, automobili).
La nostra coscienza abbraccia molto di puù che non quello che è dato nell'attimo presente: deve essere coscienza di ciò che è stato e di quel che sta per accadere. Il modo con cui siamo coscienti di questo si manifesta nell'immaginazione e nella memoria
Riprendendo il lavoro di David Chalmers (The Conscious Mind, 1996) e la sua formulazione dei problemi facili, risolvibili attraverso spiegazioni funzionali (funzioni cognitive, come il cervello elabora le informazioni, controlla i comportamenti, ecc.), e dei problemi difficili legati alla esperienza soggettiva, della coscienza, si potrebbe dire che la Hayles eviti volutamente i secondi. Il suo lavoro è tutto concentrato sui problemi facili, su come l'informazione viene elaborata e i sistemi interagiscono tra di loro, su come le pratiche cognitive sono distribuite tra umani, macchine, ambiente. Con questo approccio Hayles finisce per ignorare e dissolvere la questione più importante, la coscienza fenomenica, trattando ls cognizione come se fosse solo un’elaborazione di informazione.
Un altro fronte aperto che alimenta la critica alle posizioni di Hayles è quello dell’intelligenza artificiale sul mito della mente computazionale. La critica parte mettendo in discussione, come ha fatto Luciano Floridi, l'idea che tutto possa essere adeguatamente descritto in termini informazionali. Ridurre tutto a informazione determina un riduzionismo ontologico e impoverisce la capacità umana di distinguere tra tipi ontologicamente diversi di entità. Un elettrone che trasporta informazione in un circuito, un neurone che trasmette segnali elettrochimici, un essere umano che comunica un pensiero, tutti esseri (entità) che vengono descritti in termini informazionali, ma sono fenomeni ontologicamente diversi. L'elettrone non sa nulla dell'informazione che trasporta. Il neurone partecipa a processi biologici che hanno un tipo di organizzazione diverso dai circuiti elettronici. L'essere umano comprende, intende, produce senso, significa.
Il riduzionismo di Hayles si manifesta, quando parla di assemblaggi cognitivi nei quali umani e algoritmi collaborano nell’elaborazione di informazione, anche nel linguaggio astratto usato, valido forse a livello descrittivo ma tale da risultare vuoto. Anche Floridi parla di inforg (organismi informazionali) ma lo fa evidenziando un impoverimento ontologico e la perdita di dimensioni essenziali della nostra esistenza quali la corporeità, la mortalità, l'affettività, la vulnerabilità. Hayles, invece, sembra celebrare o almeno accettare acriticamente questa trasformazione in inforg, a segnare forse la prossima tappa dell’evoluzione umana verso il postumano o il transumano. La sua coevoluzione di umani e tecnologie è presentata come un fatto neutro, forse persino positivo, senza mai porsi la domanda su chi benefici di questo modo di pensare noi stessi e su chi abbia interesse a farci credere che siamo fondamentalmente sistemi informazionali e computazionali, calcolabili.
Debole nella sua celebrazione dell’algoritmo messo allo stesso piano dell’umano, Hayles assume che la cognizione umana possa essere formalizzata e quindi simulata/estesa algoritmicamente, dimenticando le forme più alte di cognizione umana quali la competenza, l'intuizione (olistica), il giudizio situato, il riconoscimento di pattern, la risposta immediata alle situazioni. La competenza umana non può essere catturata in algoritmi, perché gli algoritmi operano sempre al livello del principiante, seguendo regole esplicite, mai dell’esperto. Puoi costruire un sistema esperto in medicina che applica regole diagnostiche, meglio di un principiante umano, ma non puoi catturare l'intuizione del medico esperto, perché quella intuizione non opera attraverso regole. Si arriva così al risultato paradossale che gli assemblaggi cognitivi di Hayles funzionino bene con forme di cognizione più basse (calcolo, memoria, recupero di informazioni) e male con forme più alte (giudizio, intuizione, comprensione olistica). Ma Hayles non fa questa distinzione, tratta tutta la cognizione come se fosse dello stesso tipo.
Fondamentale poi è anche il fatto che gli umani siano sensibili ad aspetti della situazione che non possono essere specificati in anticipo, aspetti emergenti solo nel contesto concreto, che non sono informazione nel senso computazionale. Ne consegue che l’idea di poter catturare tutta l'informazione rilevante in una situazione è pura illusione. Per fare un esempio, quando un infermiere esperto sente che un paziente sta per peggiorare, la sua sensazione non è basata su indicatori specifici che potrebbero essere formalizzati, ma su una risposta olistica a pattern sottili emergenti nel comportamento, nel tono della voce, nell'aspetto del paziente. Un algoritmo può monitorare tutti i parametri vitali con precisione maggiore dell'infermiere, ma mancherà ad esso quella sensibilità olistica che non è basata su informazione discreta, ma sulle capacità incarnate dell'infermiere.
Critiche alla Hayles vengono anche da chi lavora effettivamente con l'intelligenza artificiale e ne (ammette) comprende i limiti tecnici. Questi tecnici sono per natura scettici sul sogno dell’IA suòòa sua pretesa di dominare il futuo. Lo sono perché sembrano comprendere che, al di là dello storytelling prevalente, i sistemi di IA funzionano bene in condizioni previste, ma collassano in condizioni anche leggermente diverse, non sanno generalizzare, non trasferiscono conoscenza da un dominio a un altro nel modo flessibile in cui lo fanno gli umani e soprattutto difettano ancora della comprensione, tipica degli umani. La consapevolezza che ne deriva è che la cognizione non cosciente, descritta dalla Hayles, non è assimilabile alla cognizione genuina degli umani. L’esempio che viene fatto è quello di sistemi di deep learning che imparano a riconoscere gatti in migliaia di foto, ma non sanno cosa sia un gatto, non lo sanno collocare nella categoria animale, non sanno che è un essere vivente, che ha bisogno di cibo e che va a caccia di topi. L’IA dispone solo di correlazioni statistiche tra pattern di pixel e l'etichetta gatto.
L’IA non comprende, non dispone della vasta conoscenza di (s)fondo sul mondo che gli umani danno per scontata, della capacità di applicare conoscenza da un dominio a un altro e di capire non solo correlazioni, ma cause. Questi non sono limiti tecnici temporanei che saranno superati con più dati o più potenza computazionale. Sono limiti che emergono dal modo stesso in cui i sistemi di AI sono costruiti, semplici ottimizzatori di funzioni statistiche su dataset (prede)finiti.
Cambiando terreno, vanno segnalate anche le molteplici critiche che le posizioni di Hayles ricevono in campo politico ed economico. La prima critica viene da Jaron Lanier, pioniere della realtà virtuale diventato critico feroce della Silicon Valley e che ha sviluppato una critica sostanziale delle ideologie (maoismo digitale) che presentano umani e tecnologie come sistemi ibridi indistinguibili. In You Are Not a Gadget (2010), Lanier critica il totalitarismo cibernetico, l'idea che gli individui siano meno importanti della collettività, che la cognizione sia distribuita, che le menti individuali siano illusorie e ciò che conta sia la mente alveare. Questa ideologia, sostiene Lanier, è funzionale agli interessi delle piattaforme tecnologiche. Se la cognizione è davvero "distribuita" tra umani e sistemi, allora ne consegue che i dati prodotti da ogni persona non sono più loro, ma parte di un sistema distribuito, che anche le decisioni non sono più individuali e che la creatività è diventata un prodotto collettivo. Il risultato è una giustificazione teorica sofisticata per l'appropriazione dei dati, della creatività, dell'agency individuale da parte delle corporations. Jaron Lanier se la prende in particolare con Kevin Kelly e la scuola di pensiero della rivista Wired, ma implicitamente ce l’ha anche con chi, come la Hayles che, con i suoi assemblaggi cognitivi, fornisce un vocabolario teorico che può essere (ed è stato) usato per giustificare pratiche estrattive e non sembra interessata a difendere l’individuo, non come finzione metafisica ma come valore politico ed etico.
In To Save Everything, Click Here (2013) Evgeny Morozov ha identificato e definito come soluzionismo la convinzione diffusa che ogni problema abbia una soluzione tecnologica, e che più tecnologia significhi sempre progresso. Una critica come questa non trova spazio nella Tecnogenesi (technogenesis) di Hayles. Per lei la coevoluzione di umani e tecnologie è parte neutrale di un processo naturale nel quale umani e tecnologie si sono sempre sviluppati insieme. Per Morozov questa non è che una naturalizzazione ideologica, che non tiene conto che le forme specifiche assunte da questa influenza sono tutt'altro che neutrali o naturali, sono il risultato di scelte politiche, economiche, sociali. Difficile parlare di co-evoluzione naturale di fronte allo strapotere delle aziende Big Tech che agiscono senza alcuna trasparenza e sulla base di decisioni aziendali specifiche su come costruire motori di ricerca, come monetizzare l'attenzione, come strutturare l'informazione. Come si fa a parlare di Tecnogenesi quando gli algoritmi all’insaputa degli utenti modificano l’attenzione umana frammentandola, distraendola, imprigionandola con l’obiettivo di massimizzare il tempo passato davanti a uno schermo e aumentare i profitti pubblicitari? Chiamare tutto questo coevoluzione oscura la dimensione di potere, di scelta, di interesse economico. Fa sembrare inevitabile ciò che è in realtà contingente e contestabile.
Inoltre, l'idea di coevoluzione tende a dissolvere la responsabilità. Se umani e tecnologie coevolvono naturalmente, allora nessuno è responsabile delle forme specifiche che questa coevoluzione prende. L’assenza di responsabilizzazione, direbbe Morozov, è ciò che vuole chi ha progettato questi sistemi e ha scelto i loro modelli di business. Oscurare questa dimensione di agency e responsabilità con il linguaggio della coevoluzione naturale è funzionale a chi detiene il potere. A una lettura superficiale può sembrare che la visione neutrale della Hayles sia democratica, in realtà nasconde una idealizzazione che oscura i rapporti di potere e di classe. Gli assemblaggi non sono simmetrici, vedono da una parte dei partecipanti umani disciplinati, sorvegliati, valutati, e potenzialmente sostituibili, mentre l'algoritmo è proprietà del capitale, strumento di estrazione di plusvalore. Descrivere questo come coevoluzione o cognizione distribuita è come descrivere il rapporto tra il lavoratore e la catena di montaggio fordista come collaborazione produttiva. Tecnicamente vero, ma politicamente mistificante.
In Hayles non c’è soltanto una sottovalutazione delle forme che la sua co-evoluzione ha assunto. Assente è anche una critica al tecno-potere oggi esercitato dal tecnocapitalismo estrattivista attuale. La sua teoria postumanista, con la sua celebrazione degli assemblaggi ibridi e della cognizione distribuita, finisce per fornire una legittimazione intellettuale a pratiche estrattive che dovremmo invece contrastare e combattere. Se per la Hayles noi umani siamo sempre stati postumani, ibridati con la (tecnica) tecnologia, allora l'appropriazione attuale dei nostri dati, della nostra attenzione, del nostro comportamento da parte delle grandi corporazioni tecnologiche non è una novità preoccupante, è soltanto un'altra iterazione della coevoluzione naturale.
Su questo si appunta la critica di Shoshana Zuboff, (The Age of Surveillance Capitalism - 2019), che ha fornito l'analisi più sistematica e approfondita di come le corporazioni tecnologiche estraggano valore dalla vita umana. La tesi centrale di Zuboff è che le piattaforme tecnologiche non vendano servizi agli utenti, ma li usino per estrarre surplus comportamentale (dati sul comportamento umano che vanno oltre ciò che è necessario per fornire il servizio) che poi vendono come prodotti predittivi ad altri (inserzionisti, assicurazioni, datori di lavoro) generando un lauto profitto. Implicita in questa critica c’è, per Zuboff, la necessità di riaffermare la proprietà del nostro corpo, della nostra esperienza, dei nostri dati, di rivendicare la differenza che esiste tra la persona e i dati estratti dalla persona e che l'esperienza vissuta non è riducibile all'informazione comportamentale.
Queste rivendicazioni si dissolvono se non si afferma una nozione forte di incarnazione, di integrità personale, di agenti autonomi, di confine tra il sé e i suoi strumenti. Affermazione impossibile dentro un pensiero come quello della Hayles fondato su un assemblaggio cognitivo e una ibridazione nella quale di vissuto e di incarnato esiste ben poco, perché se la mia cognizione è davvero distribuita tra me e Google, allora i dati che Google raccoglie su di me non sono miei, ma sono parte dell'assemblaggio. Appartengono al sistema tanto quanto appartengono a me.
A sviluppare una critica esplicita e sistematica del pensiero Di Hayles è anche Mark Hansen (Bodies in Code – 2006, e Feed-Forward - 2015). La critica è centrata sulla concezione haylesiana del corpo come incarnazione dell'informazione. Il corpo, sostiene Hansen, non è primariamente un processore di informazione, ma un generatore di affetto, un campo di intensità, un sistema di risonanze emotive. Hansen sostiene che Hayles, concentrandosi sulla cognizione e sull'informazione, sembra non tenere in alcun conto la dimensione più importante dell'interfaccia umano-tecnologia, l'affetto. Le tecnologie digitali non ci influenzano principalmente modificando come pensiamo, la nostra cognizione, ma modificando come sentiamo, i nostri affetti e sentimenti. Gli algoritmi di raccomandazione non pensano con noi, ci manipolano emotivamente. I social media non estendono la nostra cognizione, colonizzano la nostra vita affettiva. Se il corpo umano diventa un semplice substrato materiale per l’informazione perdiamo la dimensione affettiva, che è precisamente quella che le tecnologie contemporanee sfruttano più intensamente.
Per Hansen la vera integrazione tra umani e tecnologie digitali avviene a livello affettivo, non cognitivo. Gli smartphone modificano i nostri ritmi emotivi, creano dipendenze affettive, modulano i nostri stati d'animo attraverso notifiche, feedback, convalida sociale. Questa ibridazione affettiva è asimmetrica ed estrattiva. Le tecnologie estraggono energia affettiva dagli umani senza reciprocità. Non coevolviamo affettivamente con le macchine, siamo colonizzati affettivamente da sistemi progettati per estrarre valore dalla nostra vita emotiva. Secondo Hansen la Hayles ha teorizzato la relazione umano-tecnologia usando categorie quali informazione, cognizione e computazione, che erano rilevanti nell'era della cibernetica classica (anni '50-'70) ma che sono inefficaci in un’era contemporanea caratterizzata dalla colonizzazione affettiva, dal capitalismo dell'attenzione, dall'estrazione di surplus comportamentale. Il postumano di Hayles è troppo razionale, troppo cognitivo, quello reale è affettivamente manipolato, emotivamente dipendente, costantemente stimolato e distratto.
Bernard Stiegler è un filosofo che ha speso la sua intera vita a riflettere e a sviluppare una filosofia della tecnica (Technics and Time). Pur concordando con la Hayles sul fatto che umani e tecniche (Stiegler è rigido nell’evitare l’uso della parola tecnologia) sono co-costitutivi sin dall'origine. Non c'è un umano puro pre-tecnico, la tecnica è la condizione di possibilità dell'umano. Fin qui la condivisione, ma poi Stiegler va in una direzione radicalmente diversa da Hayles. Stiegler riprende da Derrida il concetto di pharmakon, la tecnica intesa contemporaneamente come cura e veleno, dotata di un potenziale emancipativo e al tempo stesso distruttivo. Quale dei due potenziali si realizza dipende dalle condizioni sociali, economiche, politiche in cui la tecnica è inserita. Da qui la critica alla Hayles che tratta la sua Tecnogenesi come se fosse un processo neutrale, come se umani e tecnologie coevolvessero secondo una logica propria, indipendente dai rapporti di potere e di produzione.
Per Stiegler la tecnogenesi non è neutrale. Le forme specifiche che prende sono determinate dal modo di produzione capitalistico, dagli interessi delle corporations, dalle loro strategie di valorizzazione e di profitto. Da qui la critica di Stiegler si fa pungente perché Hayles e altri pensatori come lei descrivono la relazione umano-tecnica in termini che sembrano critici ma sono funzionalmente apologetici. Quando Hayles dice siamo sempre stati postumani, la cognizione è sempre stata distribuita, umani e tecnologie coevolvono naturalmente, sta naturalizzando processi che sono in realtà storici, contingenti, e reversibili. Sta dicendo che questa è la condizione umana mentre sottace quella che per Stiegler è la condizione capitalistica della tecnica. Una condizione che si può cambiare, a partire da quella che per il filosofo francese è la perdita del sapere, la proletarizzazione del saper-fare (delegato alle macchine), del saper vivere (ho le APP per il welness, mi affido ad algoritmi per la fitness e il life coach), del sapere teorico (meno male che c’è lIA generativa che pensa per me).
Stiegler sostiene che le tecnologie digitali contemporanee hanno perso quasi completamente la loro dimensione di cura e sono diventate quasi esclusivamente veleno, un pharmakon tossico. Non perché la tecnologia sia intrinsecamente cattiva, ma perché è stata catturata da una logica di valorizzazione capitalistica che estrae valore dalla proletarizzazione, dalla dipendenza, dalla perdita di autonomia. E Hayles, con la sua celebrazione degli assemblaggi ibridi, non ci aiuta a vedere questo. Anzi, ci fornisce un vocabolario teorico che naturalizza e quindi legittima la proletarizzazione.
Il pensiero di Hayles è stato preso di mira anche dalla critica femminista per le sue teorie dell’ibridazione e per i costi corporei umani di questa ibridazione. Una critica di questo tipo è quella della teorica femminista Sophie Lewis (Full Surrogacy Now - 2019), che nella sua opera si interroga su quali costi abbia l’ibridazione umano-macchina, costi corporei, emotivi, riproduttivi diversi a seconda di genere, classe, razza. Il tutto con un’attenzione particolare ai maggiori costi che pagano le donne nei nuovi ruoli che le tecnologie attuali hanno disegnato per loro: lavoratrici dei data center che annotano dati per addestrare AI, donne surrogate che vendono capacità riproduttive mediate da tecnologie, lavoratrici del sesso la cui attività è sempre più mediato da piattaforme, donne dedite alla cura sempre più sorvegliate da algoritmi che monitorano ogni loro movimento, ecc.
Operando a un livello di astrazione che tiene lontana la realtà, la Hayles rende invisibili questi corpi concreti, questi lavori specifici, questi costi differenziali. Quando Hayles parla di assemblaggi cognitivi, non si capisce di chi e di quale cognizione di chi stia parlando. Si riferisce a un lavoratore intellettuale come lei sempre impegnata con un computer o del lavoratore di Amazon sorvegliato da algoritmi che contano i suoi passi? La risposta è che Hayles generalizza dall'esperienza della prima categoria (di cui fa parte) all'intera condizione umana. Ma questa generalizzazione oscura le differenze di potere, di risorse, di agency. Ne deriva la critica della Lewis alla Hayles di celebrare un postumano di classe centrato sull'esperienza di intellettuali, knowledge workers, individui con accesso privilegiato alle tecnologie in modi che amplificano la loro agency, dimenticandosi che la maggioranza degli esseri umani sperimenta la tecnologia non come estensione della propria cognizione ma come sistema di controllo, sorveglianza, disciplina. Non come coevoluzione ma come subordinazione.
La critica più forte e radicale è quella che accusa Hayles di solipsismo computazionale e di illudersi della distribuzione cognitiva in una realtà dall’apparente simmetria ma asimmetrica per definizione. La retorica di Hayles verte sulla simmetria dell’assemblaggio cognitivo in cui umani e algoritmi collaborano, co-costituiscono la cognizione, coevolvono, partecipano a un sistema più grande nel quale l’umano non ha alcun vantaggio ontologico. Ma questa simmetria è illusoria, è sufficiente porre attenzione a cosa questa simmetria significhi in pratica.
A emergere non c’è alcuna simmetria ma una dipendenza parassitaria unidirezionale crescente che si esprime in mille pratiche e in ogni momento della vita di tutti. Si dipende ormai dall'algoritmo per ricordare, per orientarsi, per decidere, mentre l’algoritmo non dipende da noi umani per nulla. Noi umani possiamo scomparire e l'algoritmo continuerà a funzionare, ma se a scomparire è l'algoritmo le nostre capacità cognitive si troveranno a essere drammaticamente ridotte. C’è asimmetria anche nella gestione dei dati e nella loro estrazione. L’algoritmo estrae dati dal nostro comportamento, mentre noi non possiamo estrarre nulla da esso (i servizi che ci propone sono altra cosa, l'algoritmo migliora attraverso i nostri dati, noi non miglioriamo attraverso i dati dell'algoritmo. Infine, c’è un controllo unidirezionale determinato da algoritmi che possono modificare il nostro comportamento, mentre noi non possiamo modificare il comportamento dell'algoritmo.
Un altro punto su cui il pensiero di Hayles ha ricevuto critiche è quanto gli algoritmi abbiano davvero qualcosa che meriti il nome di cognizione, pur nella sua connotazione di non cosciente. La critica parla di illusione prospettica alla quale la Hayles sarebbe andata incontro nell’assegnare all’algoritmo qualcosa che è umano. L’esempio usato è quello del rispecchiamento che vede l’algoritmo capace di rispecchiarci nel loro essere specchi statistici estremamente sofisticati. Gli algoritmi di machine learning vengono addestrati su dati prodotti da umani. Riconoscono pattern nei nostri comportamenti. Predicono le nostre scelte. Simulano le nostre risposte linguistiche. E noi, vedendo il nostro riflesso, proiettiamo cognizione. Vediamo l'algoritmo riconoscere un gatto e pensiamo che sta facendo ciò che facciamo noi quando riconosciamo un gatto. Vediamo l'algoritmo generare un testo e pensiamo che sta facendo ciò che facciamo noi quando scriviamo. In realtà è tutta un'illusione prospettica perchè l'algoritmo sta solo rispecchiando pattern che abbiamo prodotto noi. Non sta riconoscendo o generando, sta correlando input e output secondo funzioni statistiche ottimizzate su dataset prodotti da umani. Gli algoritmi non sono ibridati, sono soli, ontologicamente soli, esistono solo come trasformatori di dati prodotti da umani. Non esiste una cognizione distribuita tra umani e algoritmi. C'è solo la cognizione umana che usa strumenti sempre più sofisticati per elaborare i propri output. Questi strumenti sono diventati così sofisticati, complessi e intelligenti da indurci ad attribuire loro una cognizione propria.
Un altro critico della Hayles è Erik Davis, teorico della tecnologia e della cultura digitale che ha criticato esplicitamente la tendenza a pensare la mente in termini computazionali. Davis mostra come quella che era inizialmente una metafora utile, il cervello come un computer, sia gradualmente diventata un'affermazione ontologica, il cervello è un computer. Questo slittamento oscura le differenze tra cognizione biologica e computazione artificiale, riduce la ricchezza dell'esperienza mentale a processamento di informazione e giustifica interventi tecnologici sulla mente basati su modelli inadeguati
Quando Hayles parla di cognizione non cosciente degli algoritmi, di assemblaggi cognitivi, di elaborazione distribuita dell'informazione, sta rinforzando esattamente la metafora computazionale che Davis critica. Non sta descrivendo neutralmente la realtà, ma sta imponendo una cornice interpretativa computazionale, che ha conseguenze pratiche sul modo in cui trattiamo menti, corpi, tecnologie. Conseguenze concrete che portano a ipotizzare possibili aggiornamenti del cervello come se fosse un computer, a legittimare sistemi di sorveglianza e a naturalizzare l’automazione. Su questi effetti Hayles è muta, anzi contribuisce a renderli normalizzati.
Riassumendo le varie critiche al pensiero della Hayles potremmo parlare dei suoi tradimenti sulla specificità del corpo vissuto (la critica fenomenologca) e sul suo essere non semplice substrato informativo ma struttura stessa che da senso al mondo, sulla sua irriducibilità a semplice corpo informazionale; poi c’è il tradimento, evidenziato dagli studiosi della filosofia della mente (Searle, Nagel, Chalners), della coscienza fenomenica perpetrato estendendo il termine cognizione agli algoritmi, e creando l'illusione di continuità dove c'è una differenza categoriale sostanziale; un altro tradimento è quello evidenziato dalla critica che fa riferimento all’enattivismo (Varela, ecc.) che richiama l’attenzione sulla differenza ontologica tra sistemi viventi (autopoietici) e sistemi non-viventi (allo-poietici), su organismi viventi che si auto-producono, si auto-mantengono, producono senso, hanno qualcosa da perdere, e algoritmi che sono prodotti dall'esterno, mantenuti dall'esterno, non hanno produzione autonomo di senso, non hanno nulla da perdere; un altro tradimento (Lanier, Morozov, Zuboff, ecc.) avviene nella dimensione politica ed economica perché la Hayles parlando di coevoluzione, finisce per fornire una legittimazione intellettuale sofisticate alle pratiche estrattive del tecnocapitalismo attuale, non comprende che in realtà è subordinazione, estrazione, proletarizzazione, e parlando di assemblaggi cognitivi finge di non conoscere la loro asimmetria e quanto essi siano in realtà frutto non neutrale di relazioni di potere; infine l’altro tradimento si collega al fatto che la vera ibridazione umano-tecnologia è affettiva (Hansen), non cognitiva, che le tecnologie contemporanee sono diventate prevalentemente veleno piuttosto che cura (Stiegler).
Alcune considerazioni finali
Nonostante tutte queste critiche, sarebbe ingiusto rigettare completamente il lavoro di Catherine Hayles. Ci sono sue intuizioni preziose che dovremmo salvare. Hayles ha ragione nel criticare la prima generazione di cibernetici che pensavano l'informazione come separabile dal substrato materiale. Ha ragione nell'insistere che l'informazione è sempre incarnata. Il problema è che non va abbastanza lontano. Continua a pensare il corpo come supporto per l'informazione, quando dovrebbe pensare l'informazione come astrazione dal corpo vissuto.
Hayles ha ragione nel mostrare che la relazione tra umani e tecnologie ha una storia, che è cambiata nel tempo, che le categorie con cui pensiamo questa relazione sono esse stesse storiche. Il problema è che questa storicizzazione diventa naturalizzazione. Dire siamo sempre stati postumani può sembrare critico ma è funzionalmente conservatore.
Uno dei contributi più preziosi di Hayles è l'attenzione alla letteratura e alla cultura come luoghi dove si negoziano i significati della tecnologia. I suoi lavori su cyberpunk, sulla fantascienza, sulla letteratura elettronica sono illuminanti. Il problema è quando questa attenzione culturale viene generalizzata in affermazioni ontologiche sulla natura della cognizione, della mente, dell'umano.
Chi naviga dentro il mondo intellettuale della tecnologia legge con attenzione sia Hayles sia i suoi critici, si interroga sulla tecnologia attuale e se sia ancora possibile ipotizzare e dare forma a una tecnologia critica alternativa. Nel farlo i punti di partenza per una riflessione critica dovrebbero partire dal mantenere la distinzione ontologica tra vita (umano) e non vita (algoritmo) e impegnarsi a impedire che questa differenza si dissolva, dovrebbero difendere l’irriducibilità della coscienza fenomenica perché l’umano è irriducibile, non è riducibile a funzioni cognitive o semplice elaboratore di informazione. Bisogna poi riconoscere che parlare di coevoluzione è mistificatorio, che in realtà esiste una asimmetria dei rapporti di potere in essere e che la relazione umano-tecnologia contemporanea non è simmetrica, ma caratterizzata da estrazione, sorveglianza, controllo. Bisogna privilegiare il corpo vissuto, incarnato e l’affetto come elementi più importanti della cognizione, riconoscendo quanto oggi siamo tutti ricattati e ricattabili cognitivamente, ma soprattutto affettivamente. Nel ricordare sempre che la tecnologia è un pharmacon, sia cura sia veleno, bisogna riflettere sul fatto che il prevalere di cura e/o veleno dipende dalle condizioni sociali, economiche, politiche e che il compito critico è di lottare perché prevalga la dimensione di cura. Infine, è importante che ci si impegni a difendere l'autonomia individuale, evitando di dissolverla teoricamente rendendo gli individui vulnerabili e sfruttati.
La posta in gioco
Ho scritto questo testo non per smontare le teorie della Hayles il cui pensiero conosco superficialmente, o non abbastanza, ma perché mi sono reso conto di quanta influenza abbia il suo pensiero, quanto spazio abbia ottenuto in ambiti accademici il suo vocabolario teorico (postumano, assemblaggi cognitivi, tecnogenesi, ecc.) e quanta influenza stia avendo sul modo con cui raccontiamo la nostra relazione con le tecnologie.
La critica al pensiero di Hayle è tanto più necessaria quanto più essa è in grado di disorientarci ricordandoci che la distinzione tra umano e macchina sia obsoleta, mentre invece è più importante che mai, che la cognizione sia davvero distribuita quando invece non lo è perché manca di simmetria, che la coevoluzione sia naturale, quando invece è imposta, che l'ibridazione sia inevitabile, quando invece è contestabile, non lo è.
Per me le categorie con cui pensiamo il mondo non sono neutrali, ma determinano cosa possiamo vedere, cosa possiamo criticare, cosa possiamo cambiare. Se pensiamo la relazione umano-tecnologia nei termini di Hayles, certe critiche diventano impossibili. Come si può criticare l'appropriazione dei dati praticata dalle piattaforme tecnologiche e dalle IA se la cognizione è davvero distribuita tra umani e algoritmi? Come si può resistere alla sorveglianza se si è un assemblaggio ibrido? Come si può difendere la propria autonomia se il sé individuale è un'illusione umanistica superata?
Questo testo è un tentativo per trovare delle risposte, mostrando come la teoria postumana di Hayles tradisca ciò che dovrebbe proteggere, fornendo legittimazione involontaria a pratiche che dovremmo combattere. Il tentativo è di suggerire il ricorso a una teoria critica della relazione umano-tecnologia in grado di mantenere le distinzioni che contano, di riconoscere le asimmetrie di potere, di difendere l'irriducibilità della vita cosciente, di insistere sull'autonomia come valore politico.
La critica va collocata nel nostro momento attuale caratterizzato da IA che stanno trasformando il lavoro, la guerra, la creatività, da algoritmi attivi come intermediari in quasi tutti gli aspetti della vita sociale, la sorveglianza è diventata ubiqua e l'autonomia individuale è sotto assalto da ogni direzione. In questo contesto, le categorie teoriche con cui pensiamo la tecnologia diventano armi politiche, da scegliere con cura. E in questo contesto, almeno per me, la teoria postumana di Hayles, per quanto sofisticata, ci disarma proprio quando avremmo più bisogno di difenderci. Dissolve le distinzioni proprio quando avremmo più bisogno di tracciarle. Naturalizza processi proprio quando avremmo più bisogno di contestarli. Abbiamo bisogno di teorie migliori, di nuove categorie più precise, soprattutto di critiche più “oneste” e radicali.
Note
[1] Technogenesis è il termine che N. Katherine Hayles usa per descrivere la coevoluzione di umani e tecnologie: un processo reciproco e continuo attraverso cui gli esseri umani modificano le tecnologie e, simultaneamente, le tecnologie modificano gli esseri umani a livello biologico, cognitivo e culturale.
[2] Per Hayles gli assemblaggi cognitivi includono o possono includere attori umani e non umani. Un’idea riscontrabile anche in Bruno Latour, con la differenza che per essere un attore secondo Hayles un’entità deve avere capacità cognitive. Bisogna quindi distinguere tra un attore e un agente, cioè un’entità che non ha capacità cognitive. Latour non fa questa distinzione perché è interessato a cose come le rocce e il suolo. Alla Hayles interessa sapere cosa succede a un’entità quando ha capacità cognitive, capacità che hanno secondo lei tutte le forme di vita, e molti dispositivi meccanici. Qualsiasi cosa dotata di capacità cognitive può interpretare le informazioni e sulla base di questa interpretazione prendere decisioni. Il nostro computer prende decisioni, il nostro cellulare, il tuo cane, tu, i lombrichi nel tuo giardino. L’idea di interpretare le informazioni e di avere un repertorio di possibili comportamenti che consentono più di una risposta è quindi essenziale per l’idea di assemblaggio cognitivo. (Un testo ripreso da una intervista di Giancarlo Cinini con la Hayles pubblicata su Il Tascabile)
[3] Per Hayles è necessario dividere tra coscienza e cognizione. La coscienza, scrive, «rappresenta non tanto la totalità della sfera cognitiva» ma «la sua abilità nel creare narrazioni che danno senso alle nostre vite e che sostengono i nostri assunti di base sulla coerenza del mondo che ci circonda». La cognizione è, invece, «una capacità molto più ampia, che si estende ben oltre la coscienza e investe altri tipi di processi neurologici, ed è altresì presente in altre forme di vita e in sistemi tecnici complessi».
[4] Enattivismo (dall'inglese enactivism) è una teoria della mente e della cognizione sviluppata principalmente dal biologo Francisco Varela, dal filosofo Evan Thompson e dalla psicologa Eleanor Rosch, esposta nel libro The Embodied Mind (1991). L'idea centrale è che la cognizione non è una rappresentazione interna del mondo esterno (come sostiene il cognitivismo classico), ma emerge dall'interazione dinamica tra un organismo e il suo ambiente. La mente non è nel cervello, ma si "mette in atto" (enact) attraverso il corpo in movimento nel mondo. I concetti chiave sono: Embodiment (incorporazione) — la cognizione dipende dal fatto di avere un corpo, con una sua struttura sensoriale e motoria specifica; Autopoiesi — gli organismi viventi si auto-organizzano e auto-producono, e questa logica si estende alla cognizione: il soggetto non elabora informazioni passive, ma crea attivamente il proprio dominio di significato; Accoppiamento strutturale — organismo e ambiente si co-determinano reciprocamente nel tempo, senza che uno "rappresenti" l'altro; Sense-making — conoscere è dare senso al mondo in base alle proprie esigenze vitali, non "mapparlo" in modo neutro. L'enattivismo si oppone sia al cognitivismo classico (mente come elaboratore di simboli) sia al connessionismo puro, e ha influenzato profondamente filosofia della mente, neuroscienze, robotica e scienze cognitive in senso ampio.
BIBLIOGRAFIA
- Hayles, N.K., How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics, University of Chicago Press, 1999
- Hayles, N.K., Writing Machines, MIT Press, 2002
- Hayles, N.K., My Mother Was a Computer: Digital Subjects and Literary Texts, University of Chicago Press, 2005
- Hayles, N.K., Electronic Literature: New Horizons for the Literary, University of Notre Dame Press, 2008
- Hayles, N.K., How We Think: Digital Media and Contemporary Technogenesis, University of Chicago Press, 2012
- Hayles, N.K., Unthought: The Power of the Cognitive Nonconscious, University of Chicago Press, 2017
- Hayles, N.K., Postprint: Books and Becoming Computational, Columbia University Press, 2021
- Heidegger, M., Essere e tempo (1927), Longanesi, Milano, 2005
- Heidegger, M., La questione della tecnica (1954), in Saggi e discorsi, Mursia, Milano, 1976
- Dreyfus, H., What Computers Can't Do, MIT Press, 1972
- Dreyfus, H., What Computers Still Can't Do, MIT Press, 1992
- Dreyfus, H. & Dreyfus, S., Mind Over Machine, Free Press, 1986
- Merleau-Ponty, M., Fenomenologia della percezione (1945), Bompiani, Milano, 2003
- Merleau-Ponty, M., Il visibile e l'invisibile (1964), Bompiani, Milano, 2003
- Gallagher, S., How the Body Shapes the Mind, Oxford University Press, 2005
- Gallagher, S. & Zahavi, D., The Phenomenological Mind, Routledge, 2008
- Varela, F., Thompson, E. & Rosch, E., The Embodied Mind: Cognitive Science and Human Experience, MIT Press, 1991
- Thompson, E., Mind in Life: Biology, Phenomenology, and the Sciences of Mind, Harvard University Press, 2007
- Di Paolo, E., Buhrmann, T. & Barandiaran, X., Sensorimotor Life: An Enactive Proposal, Oxford University Press, 2017
- Maturana, H. & Varela, F., Autopoiesis and Cognition, Reidel, 1980
- Searle, J., "Minds, Brains, and Programs", Behavioral and Brain Sciences, 3(3), 1980
- Searle, J., The Rediscovery of the Mind, MIT Press, 1992
- Nagel, T., "What Is It Like to Be a Bat?", Philosophical Review, 83(4), 1974
- Block, N., "On a Confusion about a Function of Consciousness", Behavioral and Brain Sciences, 18(2), 1995
- Chalmers, D., The Conscious Mind, Oxford University Press, 1996
- Chalmers, D., The Character of Consciousness, Oxford University Press, 2010
- Floridi, L., The Philosophy of Information, Oxford University Press, 2011
- Floridi, L., The Fourth Revolution: How the Infosphere Is Reshaping Human Reality, Oxford University Press, 2014
- Marcus, G., "Deep Learning: A Critical Appraisal", arXiv preprint, 2018
- Marcus, G. & Davis, E., Rebooting AI: Building Artificial Intelligence We Can Trust, Pantheon, 2019
- Mitchell, M., Artificial Intelligence: A Guide for Thinking Humans, Farrar, Straus and Giroux, 2019
- Brooks, R., "Intelligence Without Representation", Artificial Intelligence, 47, 1991
- Lanier, J., You Are Not a Gadget, Knopf, 2010
- Lanier, J., Who Owns the Future?, Simon & Schuster, 2013
- Morozov, E., To Save Everything, Click Here: The Folly of Technological Solutionism, PublicAffairs, 2013
- Morozov, E., The Net Delusion: The Dark Side of Internet Freedom, PublicAffairs, 2011
- Zuboff, S., The Age of Surveillance Capitalism: The Fight for a Human Future, PublicAffairs, 2019
- Zuboff, S., "Big Other: Surveillance Capitalism and the Prospects of an Information Civilization", Journal of Information Technology, 30(1), 2015
- Dyer-Witheford, N., Cyber-Proletariat: Global Labour in the Digital Vortex, Pluto Press, 2015
- Dyer-Witheford, N., Kjøsen, A.M. & Steinhoff, J., Inhuman Power: Artificial Intelligence and the Future of Capitalism, Pluto Press, 2019
- Fuchs, C., Digital Labour and Karl Marx, Routledge, 2014
- Scholz, T., Uberworked and Underpaid: How Workers Are Disrupting the Digital Economy, Polity, 2016
- Hansen, M.B.N., Bodies in Code: Interfaces with Digital Media, Routledge, 2006
- Hansen, M.B.N., Feed-Forward: On the Future of Twenty-First-Century Media, University of Chicago Press, 2015
- Stiegler, B., Technics and Time, 1: The Fault of Epimetheus, Stanford University Press, 1998
- Stiegler, B., Technics and Time, 2: Disorientation, Stanford University Press, 2009
- Stiegler, B., Technics and Time, 3: Cinematic Time and the Question of Malaise, Stanford University Press, 2011
- Stiegler, B., For a New Critique of Political Economy, Polity, 2010
- Stiegler, B., The Age of Disruption: Technology and Madness in Computational Capitalism, Polity, 2019
- Lewis, S., Full Surrogacy Now: Feminism Against Family, Verso, 2019
- Haraway, D., "A Cyborg Manifesto" (1985), in Simians, Cyborgs, and Women, Routledge, 1991
- Braidotti, R., The Posthuman, Polity, 2013
- Hester, H., Xenofeminism, Polity, 2018
- Ellul, J., The Technological Society (1954), Vintage, 1964
- Illich, I., Tools for Conviviality, Harper & Row, 1973
- Winner, L., Autonomous Technology: Technics-out-of-Control as a Theme in Political Thought, MIT Press, 1977
- Winner, L., The Whale and the Reactor, University of Chicago Press, 1986
- Feenberg, A., Transforming Technology, Oxford University Press, 2002
- Latour, B., We Have Never Been Modern, Harvard University Press, 1993
- Damasio, A., Descartes' Error: Emotion, Reason, and the Human Brain, Putnam, 1994
- Damasio, A., The Feeling of What Happens, Harcourt, 1999
- Clark, A., Natural-Born Cyborgs: Minds, Technologies, and the Future of Human Intelligence, Oxford University Press, 2003
- Clark, A. & Chalmers, D., "The Extended Mind", Analysis, 58(1), 1998
- Noë, A., Action in Perception, MIT Press, 2004
- Adorno, T.W. & Horkheimer, M., Dialectic of Enlightenment (1947), Stanford University Press, 2002
- Marcuse, H., One-Dimensional Man (1964), Beacon Press, 1991
- Habermas, J., The Theory of Communicative Action, Beacon Press, 1984
- Davis, E., TechGnosis: Myth, Magic, and Mysticism in the Age of Information, North Atlantic Books, 1998
- Wark, M., A Hacker Manifesto, Harvard University Press, 2004
- Pasquinelli, M., The Eye of the Master: A Social History of Artificial Intelligence, Verso, 2023