These two questions are often treated as one and the same. But in practice, they pull in opposite directions. To ask what AI ethics requires is to presume shared terms about what AI is, how it acts, and what ethics is for. To ask whether we’re having the same conversation is to question those presumptions entirely.
This tension marks the contrast between the work of Luciano Floridi and N. Katherine Hayles, whose approaches to AI could not be more distinct. Their differences are not simply differences of emphasis. They reflect fundamentally divergent frameworks for making sense of artificial cognition, responsibility, and meaning.
Ethics becomes a matter of infrastructural integrity: how we build transparency, accountability, and human values into technical systems
Floridi develops a philosophy of information that treats ethics as a design challenge. AI, on his account, is an artificial agent—perhaps not a moral agent in the classic (Kantian) sense, but certainly a participant in morally significant contexts. Ethics becomes a matter of infrastructural integrity: how we build transparency, accountability, and human values into technical systems. His aim is to make artificial agents ethically tractable, so they can operate responsibly within the infosphere we now inhabit. The clarity of his approach is part of its strength. He offers taxonomies and principles calibrated for governance—tools for engineers and legislators . The result is something like a moral operating system: elegant, procedural, and resolutely rationalist.
ethics cannot be reduced to rules or machine-readable values, because cognition itself is no longer an interior property of a bounded subject
Hayles begins from a very different place: not with systems we build, but with systems that build us. For her, cognition is not a faculty to be simulated, but a distributed process already unfolding across human and nonhuman assemblages. AI operates as a recursive actor in networks of meaning-making. In this view, ethics cannot be reduced to rules or machine-readable values, because cognition itself is no longer an interior property of a bounded subject. Ethics, then, arises from entanglement. Floridi’s ethics is something we apply to a system. Hayles does not provide a theory for ethical action in the instrumental sense, but of epistemological formation. And this distinction is fundamentally important.
It may be tempting to say that both thinkers are indispensable, and end there. I hope you don't. That move risks flattening the conflict.
They do not represent two versions of the same problem. They represent two different senses of what counts as a problem.
Floridi’s work is usable. His strength lies in implementation. Hayles is harder to apply, and that difficulty is a strength. Her work demands we reconsider assumptions: about AI, about thought, and about the conditions of our implication in cognitive systems. In the end, we face two questions that are not the same.
What kind of ethics does AI demand?
And what kind of conversation makes that question intelligible in the first place?
Una versione italiana
E stiamo anche avendo la stessa conversazione?
Queste due domande sono spesso trattate come una sola e la stessa cosa. Ma in pratica, tirano in direzioni opposte. Chiedersi cosa richieda l'etica dell'IA significa presumere termini condivisi su cosa sia l'IA, come agisce e a cosa serva l'etica. Chiedersi se stiamo avendo la stessa conversazione significa mettere in discussione completamente queste presunzioni.
Questa tensione segna il contrasto tra il lavoro di Luciano Floridi e N. Katherine Hayles, i cui approcci all'IA non potrebbero essere più distinti. Le loro differenze non sono semplicemente differenze di enfasi. Riflettono quadri fondamentalmente divergenti per dare un senso alla cognizione, alla responsabilità e al significato artificiali.
Floridi sviluppa una filosofia dell'informazione che tratta l'etica come una sfida progettuale. L'intelligenza artificiale, a suo avviso, è un agente artificiale, forse non un agente morale nel senso classico (kantiano), ma certamente un partecipante a contesti moralmente significativi. L'etica diventa una questione di integrità infrastrutturale: come costruiamo trasparenza, responsabilità e valori umani nei sistemi tecnici. Il suo obiettivo è quello di rendere gli agenti artificiali eticamente trattabili, in modo che possano operare responsabilmente all'interno dell'infosfera in cui viviamo. La chiarezza del suo approccio è parte della sua forza. Offre tassonomie e principi calibrati per la governance: strumenti per ingegneri e legislatori. Il risultato è qualcosa di simile a un sistema operativo morale: elegante, procedurale e risolutamente razionalista.
Hayles parte da un punto molto diverso: non solo con i sistemi che costruiamo, ma con i sistemi che ci costruiscono. Per lei, la cognizione è un processo distribuito che si sta già svolgendo tra assemblaggi umani e non umani. L'intelligenza artificiale opera come un attore ricorsivo nelle reti di creazione di significato. In questa prospettiva, l'etica non può essere ridotta a regole o valori leggibili dalla macchina, perché la cognizione stessa non è più una proprietà interiore di un soggetto delimitato. L'etica, quindi, nasce dall'intreccio. L'etica di Floridi è qualcosa che applichiamo a un sistema. Hayles non fornisce una teoria dell'azione etica in senso strumentale, ma della formazione epistemologica. E questa distinzione è di fondamentale importanza.
Si potrebbe essere tentati di dire che entrambi i pensatori sono indispensabili, e finiscono qui. Spero che non lo facciate. Questa mossa rischia di appiattire il conflitto. Non rappresentano due versioni dello stesso problema, ma piuttosto due visioni diverse di ciò che conta come problema. L'opera di Floridi è fruibile. La sua forza risiede nell'attuazione. Hayles è più difficile da applicare e questa difficoltà è un punto di forza. Il suo lavoro richiede di riconsiderare le ipotesi: sull'intelligenza artificiale, sul pensiero e sulle condizioni della nostra implicazione nei sistemi cognitivi. Alla fine, ci troviamo di fronte a due domande che non sono le stesse. Che tipo di etica richiede l'intelligenza artificiale? E che tipo di conversazione rende intelligibile questa domanda in primo luogo?