Go down

La microetica, tra etica morale ed etica operazionale


Ogni azione che prende forma nel mondo porta con sé una presa di posizione.

Anche quando non c’è intenzione, anche quando non c’è coscienza, anche quando non c’è alcuna pretesa morale, l’azione, nel momento stesso in cui accade, distingue, separa, privilegia e stabilisce ciò che conta e ciò che può essere sacrificato.

Quando questa azione è compiuta da un sistema automatico, siamo tentati di considerarla neutra, tecnica e oggettiva. Una semplice conseguenza di calcoli, modelli, ottimizzazioni, eppure, nulla che agisca nel mondo è davvero neutro, perché ogni forma di agire produce effetti asimmetrici, aprendo alcune possibilità e chiudendone altre.

Nel dibattito contemporaneo, l’etica viene spesso invocata come correttivo o come garanzia. Si parla di macchine responsabili, di intelligenze artificiali allineate, come se il problema fosse trasferire nei sistemi una morale di tipo umano. L’etica morale, però, non è progettuale e vive di ambiguità, di eccezioni e di responsabilità assunte nel tempo, spesso solo dopo che l’azione ha prodotto i suoi effetti. Pretendere di codificarla integralmente nei sistemi automatici significa fraintendere sia l’etica, sia la natura dell’automazione.

È proprio da questo scarto che nasce l’idea di etica operazionale, un’etica che non si interroga su ciò che è giusto o sbagliato in senso assoluto, ma su ciò che un sistema è autorizzato a fare, su ciò che deve privilegiare e su ciò che gli è precluso all’interno di un contesto definito.

L’etica operazionale prende forma in vincoli, soglie, obiettivi e criteri decisionali. Non vive nel dominio delle intenzioni, ma in quello dell’implementazione ed è l’unica forma di etica che i sistemi automatici possano effettivamente incarnare.

Tuttavia, è proprio per questa sua natura, l’etica operazionale rischia di restare incompleta, perché può rendere un sistema trasparente nel funzionamento, ma non necessariamente comprensibile nel senso del suo agire. Può dire come una decisione viene presa, ma non sempre secondo quale criterio di legittimità quella decisione possa essere accettata, discussa o contestata.

È in questo spazio che emergono le microetiche, che non sono principi universali né codici normativi astratti, ma configurazioni locali e situate di finalità, priorità e limiti che orientano l’agire di un sistema in un contesto specifico. Non sostituiscono l’etica operazionale, ma la rendono interpretabile. Non aggiungono valori umani ai sistemi, ma rendono visibile ciò che già guida la loro azione.

Ogni sistema automatico incorpora una microetica, che lo si riconosca o meno. È inscritta nel modo in cui risolve i conflitti, in ciò che considera rilevante, in ciò che è disposto a sacrificare e la differenza non è tra sistemi etici e sistemi neutri, ma tra microetiche implicite e microetiche esplicite.

Quando restano disperse tra parametri, pesi e assunzioni di progetto, le microetiche appaiono come necessità tecniche, dando l’illusione che l’azione del sistema sembra inevitabile. Quando invece vengono rese interrogabili, auto-epistemiche, diventano invece ciò che sono sempre state, ovvero scelte progettuali e, per questo, discutibili e modificabili. Diventano, insomma, scelte politiche nel senso più profondo del termine.

Pensare i sistemi attraverso la lente delle microetiche significa allora spostare la domanda dal come funziona al perché è legittimo che funzioni così. Significa anche riconoscere che l’automazione non elimina la dimensione etica, ma la localizza, la distribuisce e, spesso, la nasconde.

Forse il rischio più grande non è delegare azioni ai sistemi automatici, ma farlo senza sapere che tipo di attori stiamo introducendo nel mondo che, insieme a loro, continuiamo ad abitare.

Le microetiche non risolvono questo problema, non chiudendolo, ma rendendolo pensabile e, in un’epoca in cui l’agire automatico tende a diventare ambiente, rendere qualcosa pensabile è già una forma di responsabilità.


Pubblicato il 03 febbraio 2026