Go down

Una tecnologia è utile finché resta uno strumento potente e dichiarato come tale; il problema nasce quando l’IA viene trattata come un quasi-soggetto, una quasi-presenza, che sembra dialogare, comprendere, rispondere. E non è una confusione innocente perché indebolisce la capacità umana di riconoscersi come origine delle decisioni.

Una riflessione a partire dalla Costituzione di Anthropic per Claude e la semantic interoperability


Leggevo, sulla piattaforma Linkedin, gli ultimi post della Home è ho riscontrato che il dibattito sulla IA si sta spostando su un argomento che impone una profonda riflessione e una considerazione/domanda finale: la semantica del dato. L’argomento ha suscitato la mia curiosità per cui ho approfondito un po’ di letture per capire meglio quali obiettivi, questi tecno-dibattiti, si sono prefissati.

Premetto che non è mia intenzione scomodare filosofi e studiosi, né proporre verità definitive; il mio unico intento è suggerire una riflessione su come, e soprattutto dove, si sta spostando il baricentro del potere, che è molto più sottile e meno visibile delle azioni manifeste come le guerre.

Tutto nasce dal comunicato di Anthropic che ha esposto una sua "costituzione" per Claude facilmente riscontrabile sul Web.

Chiaramente una iniziativa del genere ha scatenato discussioni e proposte di vario genere; tra le tante ne ho riscontrata una, in particolare, che tecnicamente si definisce come la semantic interoperability; si tratta della capacità di sistemi diversi di scambiarsi dati mantenendo un significato operativo uniforme. La semantic interoperability, cioè la capacità non solo di trasmettere i dati ma anche la loro definizione semantica tramite vocabolari controllati e ontologie collegate ai dati stessi. Che poi è quello che, in parole povere, ha scritto Anthropic nella sua costituzione.

Sarà un mio personale retro-pensiero ma, da semplice lettore, questa idea mi ha impensierito (eufemismo) e non poco: per comodità di ragionamento riporto il mio commento ai post letti: “Quindi ricapitolando in modo semplice: l’obiettivo è rendere condivisibile il significato operativo dei dati tra sistemi diversi per consentire alle macchine di “parlare” allo stesso modo quando scambiano informazioni. Mi permetto una semplice riflessione brevissima perché i commenti non consentono un dibattito: Stati Uniti (soft law), Cina (Centralismo) e UE (Sovranità) hanno tre approcci all’IA diametralmente opposti e, per non farci mancare nulla, stiamo assistendo ad uno scontro mondiale tra globalizzazione e multipolarismo.

Ora la semantica è potere per cui, semplicemente, chi definisce i vocabolari, le ontologie, le categorie e i vincoli stabilisce le regole di ciò che è computabile, visibile e quindi governabile. Il rischio è politico in senso classico: non riuscendo ad imporre la visione di un “governo unico globale” si tenta la strada di una infrastruttura cognitiva globale? È un passaggio molto più sottile: non governare direttamente i popoli, ma condizionarne le decisioni, perché ciò che non è semanticamente rappresentabile tende a diventare irrilevante.”

Procediamo per gradi: nelle varie ipotesi sostenute nelle discussioni, evitando un linguaggio molto tecnico – informatico, sembrerebbe che lo scopo sia nobile ovvero far emergere nuovi sistemi di AI basati su modelli linguistici e dati in spiegazioni comprensibili, anche in più lingue; questo passaggio non servirebbe solo agli sviluppatori, ma soprattutto a chi ha responsabilità di governo e controllo dei dati.

Finora, infatti, ogni IA incorpora un proprio vocabolario, che non è neutrale perché dipende dai dati di addestramento, dalle ontologie implicite o esplicite, dalla cultura giuridica, linguistica ed economica del contesto in cui è stata progettata e dalle scelte normative.

L’altro obiettivo, in termini sociologici, è quello di collegare la struttura tecnica dei dati alla loro leggibilità sociale, rendendo i processi più trasparenti, interpretabili e quindi governabili all’interno degli ecosistemi di condivisione dei dati.

Fin qui la breve cronistoria e, per completezza di informazione, nel mio commento ho evidenziato tre tipologie di approccio all’IA:

  1. Stati Uniti

Il modello statunitense sull’IA è caratterizzato da un approccio di laissez-faire tecnologico, in cui l’innovazione è guidata principalmente dal mercato, dal settore privato e dal venture capital. Non esiste una normativa federale organica sull’IA; la regolazione è frammentata, basata su ordini esecutivi, linee guida settoriali e standard volontari, come quelli promossi dal NIST attraverso framework non vincolanti per la gestione del rischio e della sicurezza. Questo assetto mira a ridurre i vincoli normativi per favorire competitività e leadership globale delle imprese tecnologiche statunitensi, riflettendo una visione utilitaristica del progresso tecnico, in cui i rischi vengono affrontati prevalentemente ex-post e la libertà d’impresa prevale su un approccio preventivo e sistemico.

  1. Cina

Il modello cinese di Governance dell’IA è fondato su una strategia statale centralizzata che integra sviluppo tecnologico, pianificazione economica e controllo sociale. L’IA è considerata una risorsa strategica nazionale, orientata alla sovranità tecnologica attraverso investimenti pubblici, ricerca centralizzata e norme stringenti su sicurezza, contenuti e registrazione degli algoritmi. I dati sono trattati come bene pubblico e l’innovazione segue indirizzi top-down coerenti con obiettivi politici e geopolitici; questo approccio consente un rapido sviluppo su larga scala e un forte allineamento tra Stato e industria, ma tende a ridurre trasparenza e pluralismo, privilegiando controllo civico e informativo.

  1. Unione Europea

Il modello europeo si distingue nettamente dagli altri due, perché affianca investimenti nell’innovazione con un approccio precauzionale basato sui diritti fondamentali e sulla protezione dei cittadini. L’Unione europea ha adottato l’Artificial Intelligence Act, la prima normativa organica e sistematica al mondo; l'approccio europeo potrebbe essere definito umano-centrico perché si ispira all'etica della responsabilità dove lo sviluppo tecnologico deve essere subordinato alla dignità umana e alla democrazia.

Questi criteri, diametralmente opposti tra di loro, producono non solo effetti interni, ma anche un disequilibrio globale di Governance dell’IA, incidendo su cooperazione internazionale, standard tecnici, interoperabilità normativa e distribuzione di benefici e rischi. Le iniziative multilaterali che mirano ad armonizzare principi comuni faticano infatti a trovare piena attuazione a causa della divergenza dei modelli e, sul piano economico, Stati Uniti e Cina, favorendo la rapidità di implementazione e accumulazione tecnologica (anche se con modalità differenti), tendono a dominare modelli e ricerca avanzata, mentre l’UE, puntando su fiducia e tutela dei diritti, allo stato attuale e nel contesto geopolitico mondiale, è fuori dal gioco.

In questi scenari economici, sociali e geopolitici proporre un semantic layer (la semantica è potere) ovvero un ecosistema globale in cui dati e servizi sono scambiati con omologazione controllata, costituirebbe, probabilmente, l’attacco finale alla sovranità del pensiero e creerebbe un’infrastruttura, di fatto, negoziabile alla bisogna del più forte.  E tutto questo per consentire ad una macchina, a detta dei tecno-entusiasti, di uscire definitivamente dalla dimensione meramente statistica.

Comunque, volendoci immergere nel contesto… Anthropic ha esposto una sua “costituzione” per Claude, quindi che si fa? Questa costituzione la dichiariamo semantica e la si adotta tutti? ... E se ogni “gestore” si crea la propria costituzione semantica e ne diventano tante quale si sceglie?

La deriva a cui stiamo assistendo è lo spostamento dell’attenzione umana proiettandola verso uno strumento che di capitale semantico o responsabilità morale non ha nulla; strategia sociale voluta per far perdere all’essere umano chiarezza su ciò che è umano, su dove risieda l’etica e su chi debba rispondere delle decisioni?

Una tecnologia è utile finché resta uno strumento potente e dichiarato come tale; il problema nasce quando l’IA viene trattata come un quasi-soggetto, una quasi-presenza, che sembra dialogare, comprendere, rispondere. E non è una confusione innocente perché indebolisce la capacità umana di riconoscersi come origine delle decisioni.


Pubblicato il 28 gennaio 2026

Luigi Russo

Luigi Russo / Autore, Saggista - Etica dell’AI - Gruppo BNP Paribas