Go down

Nei miei sforzi per sviluppare un'etica relazionale per l'IA, il lavoro di Abeba Birhane è stato centrale. Scienziato cognitivo e teorico della decolonizzazione, la scrittura di Birhane si muove fluidamente tra i domini – filosofia della mente, teoria critica della razza, etica dei dati – ma rimane focalizzata su una domanda epistemica fondamentale: quali tipi di conoscenza e quali forme di vita riproducono i sistemi di intelligenza artificiale? E in base a quali presupposti sull'umanità, la cognizione e il controllo?


Una delle provocazioni più produttive che emerge dal lavoro di Birhane può essere inquadrata come una domanda ingannevolmente semplice: stiamo progettando l'IA per il controllo o per la coesistenza? Anche se non è posta in questi termini esatti, la tensione che cattura attraversa tutta la sua scrittura. La chiarezza della domanda smentisce sia la sua profondità che la sua posta in gioco. Il lavoro di Birhane ci invita a confrontarci non solo con le intenzioni dei progettisti di sistemi, ma anche con il telos sottostante del campo stesso. Troppo spesso, l'intelligenza artificiale viene inquadrata come una soluzione alla complessità, uno strumento in grado di domare l'ambiguità, ottimizzare l'incertezza e risolvere le contraddizioni. Ma Birhane suggerisce un orientamento completamente diverso: cosa significherebbe progettare sistemi di intelligenza artificiale che non mirano a padroneggiare la complessità, ma invece dimorano al suo interno, sistemi che riconoscono l'ambiguità come costitutiva della vita umana, non un problema da risolvere?

Questa posizione è sviluppata con forza nel suo articolo ampiamente citato, "Ingiustizie algoritmiche: verso un'etica relazionale" (2021), in cui critica l'uso dominante di termini come equità, neutralità e trasparenza. Queste non sono virtù apolitiche, sostiene, ma artefatti di un'epistemologia che privilegia l'astrazione rispetto all'esperienza situata. Un'etica genuinamente relazionale non può essere costruita su correzioni computazionali o norme universalizzabili. Deve iniziare nel contesto, con un'attenta sintonia con storie di danno, asimmetrie di potere ed esclusione epistemica. Deve mettere in primo piano la posizionalità, il fatto che nessun dato è neutrale, nessun sistema è al di fuori della relazione e nessun "utente" esiste indipendentemente dalle infrastrutture che mediano la loro agenzia.

Il lavoro di Birhane va ben oltre la critica. Reinventa completamente la posta in gioco dell'etica dell'IA. Quando invoca concetti come la giustizia cognitiva, l'ambiguità e la decolonialità, non sta semplicemente sostenendo la necessità di set di dati migliori o di team di sviluppo più diversificati, anche se questi sono importanti. Chiede un ripensamento dei termini stessi su cui i sistemi di intelligenza artificiale sono costruiti e giustificati. Sfida la fantasia della governance esterna, chiedendosi invece cosa significhi essere implicati nei sistemi che progettiamo. Non si tratta di un appello alla colpa o all'innocenza, ma di una relazione, di una forma di impegno etico fondato sulla prossimità, non sulla purezza. Questo è il tipo di etica che voglio aiutare a costruire: non un quadro per controllare l'IA, ma per coesistere con essa, un processo continuo di abitare l'entanglement, in cui il lavoro dell'etica inizia non dopo la progettazione, ma al suo interno.


English origal version

Are we designing AI for control, or for coexistence? The relatioanal ethics of Abeba Birhane

In my own efforts to develop a relational ethics for AI, the work of Abeba Birhane has been central. A cognitive scientist and decolonial theorist, Birhane's writing moves fluidly between domains—philosophy of mind, critical race theory, data ethics—yet remains focused on a core epistemic question: What kinds of knowledge, and what forms of life, do AI systems reproduce? And under what assumptions about humanity, cognition, and control?

One of the most productive provocations that emerges from Birhane’s work can be framed as a deceptively simple question: Are we designing AI for control, or for coexistence? While not posed in these exact terms, the tension it captures runs throughout her writing. The clarity of the question belies both its depth and its stakes. Birhane’s work invites us to confront not only the intentions of system designers but the underlying telos of the field itself. Too often, AI is framed as a solution to complexity—an instrument that can tame ambiguity, optimize uncertainty, and resolve contradiction. But Birhane suggests a different orientation altogether: What would it mean to design AI systems that do not aim to master complexity but instead dwell within it—systems that recognize ambiguity as constitutive of human life, not a problem to be solved?

This position is developed most forcefully in her widely cited article, “Algorithmic Injustices: Towards a Relational Ethics” (2021), where she critiques the dominant use of terms like fairness, neutrality, and transparency. These are not apolitical virtues, she argues, but artifacts of an epistemology that privileges abstraction over situated experience. A genuinely relational ethics cannot be built on computational fixes or universalizable norms. It must begin in context, with a careful attunement to histories of harm, power asymmetries, and epistemic exclusion. It must foreground positionality—the fact that no data is neutral, no system is outside of relation, and no “user” exists independently of the infrastructures that mediate their agency.

Birhane’s work pushes far beyond critique. It reimagines the stakes of AI ethics entirely. When she invokes concepts like cognitive justice, ambiguity, and decoloniality, she is not merely arguing for better datasets or more diverse development teams—though those matter. She is calling for a rethinking of the very terms on which AI systems are built and justified. She challenges the fantasy of external governance, asking instead what it means to be implicated in the systems we design. This is not a call for guilt or innocence but for relation—for a form of ethical engagement grounded in proximity, not purity. This is the kind of ethics I want to help build: not a framework for controlling AI, but for coexisting with it, an ongoing process of inhabiting entanglement, where the work of ethics begins not after design, but within it.


Pubblicato il 04 luglio 2025

Owen Matson, Ph.D.

Owen Matson, Ph.D. / Designing AI-Integrated EdTech Platforms at the Intersection of Teaching, Learning Science, and Systems Thinking

drmatsoned@gmail.com