1. Il corpo come costruzione sociale e tecnica
Il corpo è un fatto biologico o è anche il risultato di un processo storico, culturale e politico? La domanda non riguarda solo la teoria del genere, ma il modo in cui una società decide chi è riconoscibile, legittimo, normale. Cosa accade quando questa costruzione non è più soltanto sociale, ma anche tecnologica? Quando le categorie che definiscono i corpi vengono automatizzate?
Judith Butler, fin da Gender Trouble (1990), non è d’accordo con l’idea che esista un corpo “naturale” precedente alle norme. Il genere, sostiene, non è un’essenza nascosta che attende di essere espressa, ma l’effetto di linguaggi e aspettative che nel tempo producono l’impressione di un’identità stabile. Il corpo, in questa prospettiva, non è un punto di partenza, ma ciò che prende forma dentro un sistema di regole che stabiliscono cosa è riconoscibile come maschile o femminile, cosa è accettabile e cosa no.
In Bodies That Matter, Butler spinge oltre questa riflessione, anche il “sesso”, spesso considerato il dato biologico originario, emerge all’interno di pratiche istituzionali. Non significa negare la materialità del corpo, ma riconoscere che la sua intelligibilità - ciò che possiamo dire di esso, ciò che conta come reale - dipende da cornici normative. Alcuni corpi sono immediatamente leggibili, altri faticano a trovare riconoscimento.
In Atlas of AI, Kate Crawford mostra come i sistemi di intelligenza artificiale classificano i corpi attraverso dataset che incorporano categorie già esistenti: genere, razza, età, provenienza sociale. Quando un algoritmo “riconosce” un volto o attribuisce un’identità, non sta rivelando una verità oggettiva, sta applicando uno schema costruito a partire da archivi storici e scelte politiche. L’AI, in altre parole, non scopre identità preesistenti, le rafforza e le standardizza.
Se per Butler il corpo è prodotto da norme sociali e linguistiche, per Crawford quelle stesse norme vengono oggi incorporate in infrastrutture tecniche che funzionano su scala globale. La costruzione del corpo non avviene più solo attraverso istituzioni, media, pratiche educative, avviene anche attraverso sistemi automatizzati che classificano e prevedono.
Butler lavora sul piano simbolico e normativo, analizzando come le categorie prendono forma e producono soggetti. Crawford osserva il livello infrastrutturale, mostrando come quelle categorie vengano tradotte in codice e inserite nei sistemi decisionali.
2. Genere e classificazione, chi stabilisce le categorie
Le categorie di genere descrivono qualcosa che esiste già, oppure contribuiscono a farlo esistere? È una domanda meno astratta di quanto sembri. Ogni volta che compiliamo un modulo, selezioniamo un’opzione, veniamo registrati in un database, entriamo in un sistema di classificazione. Il punto è capire se quelle caselle riflettano la realtà o la modellino.
Judith Butler ha messo in discussione proprio questa apparente neutralità. L’identità di genere, nella sua prospettiva, non è una proprietà naturale e stabile che precede il linguaggio. È il risultato di norme sociali che definiscono ciò che è accettabile e riconoscibile. Le categorie di genere funzionano come regimi di intelligibilità, stabiliscono chi può essere visto come soggetto legittimo e chi resta ai margini. Non si limitano a descrivere le persone, contribuiscono a produrre lo spazio entro cui quelle persone diventano pensabili come “uomini”, “donne” o come deviazioni da queste figure.
Il problema, allora, non è solo che esistano norme. È che queste norme hanno il potere di decidere quali vite siano riconosciute come pienamente umane e quali no.
Kate Crawford affronta la stessa questione da un altro punto di vista, quello delle tecnologie. I sistemi di machine learning hanno bisogno di categorie per funzionare. Un algoritmo non può apprendere senza etichette. Per addestrarlo occorrono dataset organizzati secondo classificazioni precise: maschio/femmina, adulto/minore, normale/anomalo. Ma queste etichette non sono dati naturali, sono scelte. Riflettono visioni del mondo e gerarchie storiche.
Quando queste categorie entrano nei sistemi algoritmici, smettono di essere solo convenzioni sociali e diventano infrastrutture operative. Guidano decisioni, orientano previsioni, influenzano accesso a servizi e opportunità. In questo passaggio le classificazioni si irrigidiscono, ciò che era discutibile e storicamente situato viene tradotto in parametro tecnico.
Butler smonta l’idea che il genere sia un fatto naturale. Crawford mostra che quella stessa artificialità, lungi dall’essere superata, viene oggi incorporata nel codice e resa automatica. La prima analizza il potere normativo delle categorie sul piano culturale e simbolico, la seconda ne evidenzia la trasformazione in dispositivi tecnici che operano su larga scala.
3. Visibilità, riconoscimento e sorveglianza
Essere visibili significa essere riconosciuti, oppure essere controllati? E quando un corpo diventa leggibile per una macchina, sta ottenendo legittimazione o sta cedendo una parte della propria autonomia?
Judith Butler, in Precarious Life e Frames of War, affronta il tema del riconoscimento partendo da una constatazione per cui non tutte le vite sono considerate allo stesso modo. Alcune vengono rappresentate come degne di protezione, altre restano ai margini, prive di cornice simbolica. Il riconoscimento è un processo regolato da norme e dispositivi culturali che decidono chi è “leggibile” come vita umana pienamente tale.
La visibilità, in questa prospettiva, non è un valore in sé. È sempre il risultato di una selezione. Ciò che appare nello spazio pubblico - nei media, nel discorso politico, nelle immagini di guerra - è filtrato da cornici che stabiliscono cosa conta e cosa può essere ignorato. L’invisibilità non è un’assenza casuale, ma una scelta implicita del sistema di rappresentazione.
Kate Crawford affronta un passaggio ulteriore, tipico dell’epoca digitale. Oggi la visibilità non è solo simbolica, ma anche computazionale. I sistemi di visione artificiale, il riconoscimento facciale, le tecnologie biometriche trasformano i corpi in dati analizzabili. La promessa è quella della sicurezza e dell’efficienza, ma nella pratica emergono meccanismi di selezione altrettanto politici.
Alcuni corpi diventano iper-visibili, vengono tracciati, profilati, monitorati con maggiore intensità, spesso quelli già esposti a discriminazioni sociali o razziali. Altri restano invisibili nei dataset, non perché non esistano, ma perché non rientrano nei criteri di raccolta e classificazione dei dati.
Butler lavora sul piano del riconoscimento simbolico e politico, chi viene visto come vita che conta. Crawford analizza la visibilità infrastrutturale, chi viene reso leggibile dalle macchine e secondo quali parametri.
Entrambe concludono che la visibilità è sempre un rapporto di potere, non esiste sguardo innocente, sia esso umano o algoritmico. La questione non è soltanto se veniamo visti, ma da chi, attraverso quali criteri, e con quali conseguenze.
4. Potere, norme e infrastrutture
Il potere agisce soprattutto attraverso le norme culturali o attraverso i sistemi tecnici? È ancora possibile distinguere tra un potere simbolico - che opera nel linguaggio, nelle rappresentazioni - e un potere tecnico - che si manifesta nei dispositivi, nelle piattaforme? Oppure queste dimensioni si sono ormai intrecciate fino a diventare inseparabili?
Per Judith Butler il potere non è soltanto ciò che vieta o reprime, ma anche ciò che produce. Le norme di genere, ad esempio, non si limitano a disciplinare comportamenti già esistenti, contribuiscono a creare i soggetti che poi sembrano semplicemente descrivere. Dire “uomo” o “donna” significa attivare un insieme di aspettative, ruoli, possibilità e limiti. In questa prospettiva non esiste un “io” originario, puro, precedente alla società. Il soggetto prende forma dentro reti di riconoscimento e potere, ed è attraverso queste cornici che diventa visibile e legittimo.
Kate Crawford sposta l’attenzione su un livello diverso, le norme non restano confinate nel discorso, oggi vengono tradotte in sistemi tecnici. L’intelligenza artificiale è un’infrastruttura che organizza il modo in cui lavoriamo, ci muoviamo, accediamo a risorse, veniamo classificati e valutati. I modelli di machine learning e le piattaforme di riconoscimento incorporano criteri, priorità, visioni del mondo. E lo fanno dentro un’economia fondata sull’estrazione dei dati, sulla loro valorizzazione e sulla sorveglianza diffusa.
Se Butler analizza il potere come rete di norme e discorsi che rendono possibile l’esistenza sociale del soggetto, Crawford lo osserva come architettura materiale e computazionale che rende operative quelle stesse norme. In un caso il potere passa attraverso il linguaggio e il riconoscimento, nell’altro attraverso codici, dataset, interfacce, piattaforme.
La questione è che oggi queste dimensioni non funzionano più separatamente. Le categorie culturali diventano variabili nei database, le aspettative sociali si trasformano in criteri di classificazione automatica, le gerarchie simboliche vengono rese misurabili e applicate su larga scala. Il potere agisce contemporaneamente come norma e come infrastruttura.
5. Resistenza e possibilità di trasformazione
Se le identità non sono naturali ma costruite, allora non sono nemmeno immutabili. La questione diventa capire dove si gioca la possibilità di trasformarle, nel linguaggio e nelle pratiche sociali oppure nelle regole che governano le infrastrutture tecnologiche?
Per Judith Butler il punto di partenza è la performatività. Se il genere esiste perché viene continuamente ripetuto attraverso gesti e norme, allora può essere anche ripetuto in modo diverso. Non si tratta di un atto individuale arbitrario, ma di uno scarto dentro la norma stessa, una variazione che ne mostra la fragilità. La trasformazione, in questa prospettiva, nasce da pratiche collettive - movimenti sociali, linguaggi inclusivi, nuove forme di alleanza - capaci di ampliare ciò che viene riconosciuto come umano e legittimo. Cambiare le categorie significa cambiare le condizioni di riconoscibilità.
Anche Kate Crawford rifiuta l’idea che le tecnologie siano inevitabili, ma insiste su un punto, oggi le categorie non circolano solo nel discorso pubblico, sono incorporate nei sistemi tecnici. Un algoritmo che classifica, un database che etichetta, una piattaforma che decide visibilità e invisibilità producono effetti materiali. Per questo la trasformazione, secondo Crawford, non può limitarsi al piano simbolico. Servono interventi strutturali, regole chiare, responsabilità istituzionali, trasparenza nei dataset, limiti all’uso di determinate tecnologie. Non basta ridefinire le parole, occorre intervenire sulle infrastrutture che le rendono operative.
Qui emerge una differenza significativa. Butler individua spazi di sovversione nella pratica culturale e politica, Crawford richiama l’urgenza di modificare architetture tecniche e assetti di potere. Entrambe rifiutano l’idea di un destino già scritto, sia sul piano naturale sia su quello tecnologico. Né il genere né l’algoritmo sono forze ineluttabili, ma costruzioni storiche, e come tali possono essere messe in discussione.
Conclusione
Il confronto tra Judith Butler e Kate Crawford mostra due prospettive diverse ma complementari. Butler indaga come norme e linguaggi producano il soggetto e il corpo, mentre Crawford analizza come quelle stesse norme vengano oggi incorporate nei sistemi tecnologici.
La prima lavora sul piano simbolico e politico del riconoscimento, la seconda su quello infrastrutturale e computazionale del potere, ma entrambe convergono su un punto, l’identità e i corpi non sono dati naturali, ma effetti di dispositivi sociali e tecnici.
Dove Butler apre spazi di sovversione performativa, Crawford richiama la necessità di trasformazioni materiali e istituzionali. Il loro possibile punto di incontro sta proprio qui, nella consapevolezza che la lotta per ridefinire ciò che siamo non può più limitarsi al piano culturale o a quello tecnologico. Deve attraversarli entrambi.
Brevi biografie
Judith Butler (1956) Filosofa statunitense, è una delle voci più influenti della teoria critica contemporanea. Insegna alla University of California, Berkeley, dove si occupa di filosofia politica, teoria del genere ed etica. Con Gender Trouble (1990) ha messo in discussione l’idea che il genere sia un dato naturale, sostenendo che sia piuttosto il risultato di norme sociali ripetute e interiorizzate. In Bodies That Matter ha approfondito il rapporto tra linguaggio, potere e materialità del corpo, mostrando come alcune vite vengano riconosciute e altre marginalizzate. Il suo lavoro ha avuto un impatto duraturo nel dibattito su identità, vulnerabilità e diritti civili.
Kate Crawford (1974) Ricercatrice e studiosa delle implicazioni sociali e politiche dell’intelligenza artificiale, è tra le analiste più attente al rapporto tra tecnologia e potere. Ha co-fondato l’AI Now Institute a New York e lavora da anni sul modo in cui i sistemi algoritmici influenzano lavoro, sorveglianza, ambiente e diritti. Nel libro Atlas of AI (2021) ha mostrato come l’intelligenza artificiale non sia solo un insieme di software, ma un’infrastruttura globale che mobilita risorse naturali, lavoro umano e dati, riproducendo spesso disuguaglianze esistenti. Il suo lavoro intreccia ricerca accademica, indagine critica e progetti artistici dedicati alla visualizzazione delle reti di potere tecnologico.
POV nasce dall’idea di mettere a confronto due autori viventi, provenienti da ambiti diversi - filosofia, tecnologia, arte, politica - che esprimono posizioni divergenti o complementari su un tema specifico legato all’intelligenza artificiale.
Si tratta di autori che ho letto e approfondito, di cui ho caricato i testi in PDF su NotebookLM. A partire da queste fonti ho costruito una scaletta di argomenti e, con l’ausilio di GPT, ho sviluppato un confronto articolato in forma di articolo.
L’obiettivo non è giungere a una sintesi, ma realizzare una messa a fuoco tematica, far emergere i nodi conflittuali, perché è proprio nella differenza delle visioni che nascono nuove domande e strumenti utili a orientare la nostra ricerca di senso.