Go down

L'intelligenza artificiale rappresenta oggi non soltanto un complesso di tecnologie emergenti, ma un dispositivo attraverso cui si distribuiscono pratiche etiche che incidono profondamente sull'organizzazione sociale. Chi progetta, addestra e implementa sistemi di IA compie scelte valoriali che, sebbene spesso implicite, determinano ciò che viene considerato giusto, accettabile o preferibile in molteplici ambiti della vita collettiva.


La Rome Call for AI Ethics, promossa dal Vaticano nel febbraio 2020, costituisce un tentativo significativo di negoziare i principi fondamentali che dovrebbero orientare lo sviluppo di queste tecnologie. L'iniziativa si distingue per il suo approccio non oppositivo al progresso tecnologico, proponendo invece una grammatica etica condivisa in un contesto sempre più caratterizzato dalla mediazione algoritmica. Il documento, sottoscritto inizialmente dalla Pontificia Accademia per la Vita, Microsoft, IBM, FAO e dal Ministero dell'Innovazione italiano, articola sei principi fondamentali: trasparenza, inclusione, responsabilità, imparzialità, affidabilità, sicurezza e privacy. Nel corso degli anni, l'iniziativa ha progressivamente ampliato la propria base di adesione, coinvolgendo nel luglio 2024 a Hiroshima rappresentanti di ventuno diverse tradizioni religiose, configurandosi così come una piattaforma etica interreligiosa di portata globale.

Questa prospettiva solleva interrogativi rilevanti sulla distribuzione del potere nella definizione degli standard etici contemporanei: in che misura le istituzioni religiose, gli Stati nazionali o i fornitori di piattaforme tecnologiche possono legittimamente rivendicare un ruolo nella governance etica dell'intelligenza artificiale?

La delega del giudizio: dall'esternalizzazione operativa all'esternalizzazione decisionale

Il fenomeno della consulenza strategica offre un paradigma interpretativo utile per comprendere le dinamiche di delega che caratterizzano l'adozione dell'intelligenza artificiale nelle organizzazioni contemporanee. Nel saggio The Big Con: How the Consulting Industry Weakens our Businesses, Infantilizes our Governments and Warps our Economies (2023), le economiste Mariana Mazzucato e Rosie Collington documentano come le grandi organizzazioni abbiano progressivamente delegato alle società di consulenza non soltanto l'efficienza operativa, ma la stessa capacità di formulare giudizi strategici. Secondo le autrici, questo processo di esternalizzazione si è intensificato a partire dagli anni Ottanta e Novanta del Novecento, in concomitanza con le riforme neoliberali promosse sia dalla destra che dai progressisti della cosiddetta Terza Via.

L'intelligenza artificiale, in questo schema interpretativo, rappresenta una fase ulteriore di questo processo: non si esternalizza più soltanto il "come" implementare determinate soluzioni, ma anche il "perché" adottare specifici orientamenti strategici. Le organizzazioni cercano sempre più spesso algoritmi che decidano, modelli che legittimino scelte e risultati che esonerino dalla responsabilità decisionale. Il management algoritmico promette di automatizzare non soltanto l'esecuzione di compiti, ma il giudizio stesso.

Alcune grandi società di consulenza hanno esteso il proprio ambito di intervento anche al dominio dell'intelligenza artificiale, proponendosi come mediatori tra le organizzazioni e questa tecnologia. Offrono governance "responsabile", modelli etici "scalabili" e intelligenza "as-a-service", impiegando un lessico ottimista che richiama le retoriche consolidate del settore. Tuttavia, come osservano Mazzucato e Collington, quando il mercato richiede comprensione approfondita e risultati concreti piuttosto che scenari ipotetici e presentazioni, emergono le criticità strutturali di un modello fondato sulla delega acritica.

La tecnologia come sistema di credenze: analogie strutturali con il fenomeno religioso

L'affermarsi dell'intelligenza artificiale come strumento di supporto decisionale presenta caratteristiche che meritano un'analisi comparata con i sistemi religiosi tradizionali. Quando un individuo consulta un modello linguistico per questioni che riguardano scelte esistenziali significative – orientamento professionale, gestione di conflitti interpersonali, decisioni relative alla salute – compie un atto che, per profondità di coinvolgimento e aspettative riposte, presenta affinità strutturali con pratiche di carattere devozionale.

La tecnologia contemporanea, e l'intelligenza artificiale in particolare, si è configurata come sistema alternativo di attribuzione di senso. Presenta valori distintivi, figure di riferimento celebrate dalla comunità, rituali di utilizzo consolidati. Gli utenti offrono i propri dati personali in cambio di servizi, in un meccanismo che richiama la logica del sacrificio e dello scambio simbolico propria delle tradizioni religiose. Le passioni e i comportamenti individuali vengono quantificati e processati, riducendo spesso l'individuo a profilo algoritmico o segmento di mercato. Le architetture materiali cambiano: gli spazi dedicati non sono più edifici fisici, ma infrastrutture computazionali. Le interfacce sostituiscono le liturgie. L'identità individuale non viene più interpretata attraverso categorie spirituali, ma attraverso profili generati algoritmicamente.

L'accelerazione tecnologica, caratteristica distintiva della fase attuale del capitalismo delle piattaforme, ha superato la capacità umana di comprensione e adattamento. Molti cambiamenti avvengono nell'arco di mesi, spesso in modo silenzioso, con la complicità di chi ha ormai attribuito alla tecnologia una funzione salvifica. Le narrazioni dominanti celebrano il progresso come fenomeno inevitabile, scoraggiando la riflessione critica e l'elaborazione di alternative possibili. L'inevitabilità è diventata un precetto culturale, un principio che viene accettato senza verifica, collegato alla teoria della singolarità tecnologica come evento futuro certo e ineluttabile.

La gestione di questa trasformazione risulta concentrata nelle mani di un ristretto numero di attori economici e tecnologici, configurando quella che alcuni analisti definiscono un'aristocrazia tecno-feudale globale. Questi soggetti, attraverso il controllo di piattaforme e infrastrutture tecnologiche, esercitano un'influenza significativa sulla vita digitale e, progressivamente, anche sulla sfera sociale, politica ed economica contemporanea.

Questioni epistemiche e crisi istituzionale

Questa trasformazione solleva interrogativi di natura epistemica che riguardano tanto le istituzioni religiose quanto le organizzazioni secolari. Come possono mantenersi interpreti di senso in un contesto dominato da automatismi cognitivi? Per le istituzioni religiose, la sfida consiste nell'evitare che la spiritualità si riduca a retorica priva di incisività pratica. Per le organizzazioni, il rischio è che ogni decisione diventi mera replica di template predefiniti, ogni scelta si appiattisca su workflow standardizzati e ogni relazione si svuoti di contenuto autentico.

La dipendenza crescente dalle mediazioni algoritmiche comporta conseguenze significative sulla percezione della realtà. La difficoltà nel distinguere tra dimensione online e offline, tra informazioni verificate e contenuti generati automaticamente, tra relazioni autentiche e interazioni simulate, riflette una trasformazione più profonda nella struttura cognitiva collettiva. La cessione di tempo, attenzione ed emozioni alle piattaforme tecnologiche ha trasformato gli utenti in risorse economiche, ridefinendo il rapporto tra individuo e sistema produttivo.

Questa trasformazione solleva interrogativi di natura epistemica che riguardano tanto le istituzioni religiose quanto le organizzazioni secolari. Come possono mantenersi interpreti di senso in un contesto dominato da automatismi cognitivi? Per le istituzioni religiose, la sfida consiste nell'evitare che la spiritualità si riduca a retorica priva di incisività pratica. Per le organizzazioni, il rischio è che ogni decisione diventi mera replica di template predefiniti, ogni scelta si appiattisca su workflow standardizzati e ogni relazione si svuoti di contenuto autentico.

La dipendenza crescente dalle mediazioni algoritmiche comporta conseguenze significative sulla percezione della realtà. La difficoltà nel distinguere tra dimensione online e offline, tra informazioni verificate e contenuti generati automaticamente, tra relazioni autentiche e interazioni simulate, riflette una trasformazione più profonda nella struttura cognitiva collettiva. La cessione di tempo, attenzione ed emozioni alle piattaforme tecnologiche ha trasformato gli utenti in risorse economiche, ridefinendo il rapporto tra individuo e sistema produttivo.

Questa condizione si accompagna a una diminuzione della consapevolezza riguardo ai diritti individuali e collettivi, alla progressiva erosione del concetto di bene comune, alle forme di manipolazione informativa sempre più sofisticate. Il contesto geopolitico contemporaneo, caratterizzato da instabilità economica, frammentazione sociale e diffusione di sistemi politici autoritari, amplifica queste dinamiche.

Verso una riconfigurazione della responsabilità decisionale

L'intelligenza artificiale non costituisce necessariamente una minaccia per le forme tradizionali di ricerca di senso, quanto piuttosto una sfida alla loro configurazione istituzionale e alle loro modalità operative. Analogamente a quanto Mazzucato e Collington suggeriscono riguardo alla necessità di smascherare le deleghe indiscriminate alle logiche consulenziali, anche il rapporto tra intelligenza artificiale e istituzioni etiche – siano esse religiose, politiche o economiche – richiede un recupero della capacità di giudizio autonomo.

Non è sufficiente regolamentare la tecnologia attraverso norme e linee guida: è necessario riappropriarsi della capacità di discernimento critico. Il conflitto fondamentale non si situa tra esseri umani e macchine, ma tra pensiero autonomo e delega acritica, tra esercizio del discernimento e mera conformità procedurale, tra chi formula domande e chi accetta passivamente risposte preconfezionate.

Il processo di emancipazione da questa dipendenza tecnologica richiede uno sforzo complesso, sia a livello individuale che collettivo. La conversione di massa alle piattaforme tecnologiche ha generato forme di dipendenza che rendono difficoltosa la presa di distanza critica. Tuttavia, la possibilità di una liberazione interiore rimane percorribile, sebbene complicata dall'assenza di spazi istituzionali nei quali esprimere e condividere tale scelta.

La riappropriazione della cittadinanza attiva e della partecipazione politica costituisce un elemento fondamentale di questo processo. La riflessione critica deve concentrarsi sui presupposti ideologici che sostengono le narrazioni dominanti: i miti dell'efficienza e della produttività illimitate, del progresso automatico, del soluzionismo tecnologico facile, dell'inevitabilità e dell'assenza di alternative. La questione centrale non riguarda soltanto la tecnologia in sé, ma il recupero della dignità umana in un contesto che tende progressivamente a subordinarla alla logica economica e algoritmica.

Se l'intelligenza artificiale può essere configurata come "giusta", "etica" o "umana" – come auspicano iniziative quali la Rome Call for AI Ethics – ciò richiede un rafforzamento dei quadri etici di riferimento, non un loro indebolimento. Le organizzazioni che aspirano a rimanere luoghi di elaborazione di senso dovranno abbandonare la logica dell'acquisto di soluzioni preconfezionate e investire nella costruzione di capacità interne di analisi, valutazione e decisione.

La questione rimane aperta e merita ulteriori approfondimenti: in che modo le diverse istituzioni sociali possono sviluppare forme di governance dell'intelligenza artificiale che siano al contempo tecnicamente adeguate ed eticamente fondate, evitando sia l'abdicazione della responsabilità sia la pretesa di un controllo totale? Come è possibile mantenere spazi di autonomia decisionale in un contesto caratterizzato da crescente automazione cognitiva? Quali forme di resistenza culturale e istituzionale possono essere elaborate per preservare la capacità di giudizio critico e l'esercizio della responsabilità collettiva?


Bibliografia

Detweiler, C. (2013). iGods: How Technology Shapes Our Spiritual and Social Lives. Grand Rapids: Brazos Press. ISBN: 978-1-58743-344-3

Mazzucato, M., Collington, R. (2023). The Big Con: How the Consulting Industry Weakens our Businesses, Infantilizes our Governments and Warps our Economies. London: Penguin Press. ISBN: 978-0-241-57308-2

Pontifical Academy for Life (2020). Rome Call for AI Ethics. Vatican City. Disponibile presso: https://www.vatican.va/roman_curia/pontifical_academies/acdlife/documents/rc_pont-acd_life_doc_20202228_rome-call-for-ai-ethics_en.pdf 

StultiferaBiblio

  • Mariana Mazzucato, Rosie Collington, The Big Con Penguin Books Ltd, 2024,

Pubblicato il 05 luglio 2025

Calogero (Kàlos) Bonasia

Calogero (Kàlos) Bonasia / etiam capillus unus habet umbram suam