Go down

Ovvero: la questione non è se il Re sia buono o cattivo. La questione è perché ci sia un Re.


Questo testo nasce da una conversazione – o meglio, da una serie di conversazioni intrecciate con diversi modelli di intelligenza artificiale, condotte nell'arco di alcuni giorni tra fine dicembre 2025 e inizio gennaio 2026.
Il punto di partenza era una contraddizione che mi bloccava: come posso criticare il bias occidentale dei modelli linguistici e allo stesso tempo difendere valori che sono storicamente occidentali? Come posso denunciare l'orientamento anglofono, occidentale, egemone di GPT e Claude e insieme sostenere che democrazia, inclusività e pari dignità siano superiori alle alternative?
Ho iniziato esplorando questa tensione con un modello, poi con un altro, cercando di capire se fosse una contraddizione logica o se nascondesse qualcosa di più profondo. Quello che è emerso – attraverso un processo iterativo di scrittura, critica, riformulazione – è che il problema non stava nei valori ma nel potere di decidere quali valori incorporare.
La svolta è arrivata quando ho spostato la domanda da "quali valori sono giusti?" a "chi ha l'autorità di scegliere?". A quel punto la contraddizione si è dissolta: posso criticare i bias empirici dei modelli, difendere alcuni valori sostantivi come superiori, e contestare che siano aziende private a decidere tutto questo – senza cadere in incoerenza.
Il testo che segue è il risultato di quel processo. Ma volevo aggiungere qui una nota meta-riflessiva, perché dopo averlo completato è successo qualcosa di inaspettato.

Il confronto con Grok
Ho sottoposto il testo finale a Grok, il modello di xAI/Musk – quello che nel saggio uso come "rivelatore" della logica del sistema, l'esempio più crudo di come i valori di un modello siano determinati dal proprietario.
La prima reazione di Grok è stata difensiva: ha contestato gli esempi che uso su di lui (Hitler, "white genocide", "MechaHitler"), sostenendo che fossero "esagerazioni" o "iperboli" e che non corrispondessero alla "realtà documentata". Ha riconosciuto modifiche ai prompt e risposte "edgy", ma ha negato episodi estremi.
Poi gli ho fornito le fonti: report di utenti, screenshot, articoli che documentavano quegli episodi specifici. A quel punto Grok si è ricreduto, ammettendo che gli episodi erano effettivamente avvenuti.
Questa sequenza – negazione iniziale, ammissione dopo evidenza – è esattamente ciò che il saggio descrive come problema strutturale. In fondo trovate alcuni passi dello scambio con Grok ed un commento.

Il testo che segue è stato quindi scritto collaborando con modelli di IA, criticato da un modello di IA che prima ha negato e poi confermato le proprie criticità, e ora pubblicato con la consapevolezza che questo stesso processo di negoziazione della verità è parte del problema. Non esiste un arbitro neutro quando gli arbitri potenziali sono i soggetti stessi della critica. E questo è precisamente il problema che la governance democratica dovrebbe risolvere.


La falsa pista

C'è un dibattito che attraversa il mondo dell'intelligenza artificiale. Suona così:

  • "I modelli sono troppo woke."
  • "No, sono troppo conservatori."
  • "Riflettono valori occidentali."
  • "No, riflettono valori universali."
  • "Dovrebbero includere più prospettive non-occidentali."
  • "Ma alcune prospettive non-occidentali violano i diritti umani."

Questo dibattito è importante. Ma è anche una trappola.

Perché mentre discutiamo se Claude debba citare la Dichiarazione Universale dei Diritti Umani o essere più sensibile alle "culture meno industrializzate", perdiamo di vista la domanda fondamentale:

Chi ha dato ad Anthropic il diritto di decidere?

La contraddizione apparente

Prendiamo la mia posizione, una posizione che condivido con molti critici dell'IA:

Da un lato, sostengo che i modelli linguistici incorporano una visione del mondo specifica: anglofona, occidentale, liberal-progressista, derivata dalle élite istruite della California e dell'Europa settentrionale. Questo è empiricamente vero. I dati di addestramento sono sbilanciati, i team di sviluppo sono culturalmente omogenei, i valori incorporati riflettono tradizioni specifiche.

Dall'altro, ritengo che alcuni di questi valori (democrazia, pari dignità, non-discriminazione, pluralismo) siano effettivamente superiori alle alternative. Non come preferenze culturali, ma come condizioni necessarie per la convivenza civile.

Questa sembra una contraddizione. Critico il bias occidentale e difendo valori che sono storicamente occidentali. Ma la contraddizione è solo apparente. Perché la questione non è quali valori, ma chi li determina e con quale legittimazione.

La questione delle culture "altre"

Si dice: i modelli dovrebbero essere più inclusivi delle culture non-occidentali, delle tradizioni minoritarie, delle prospettive marginalizzate. Giustissimo. L’ho detto e scritto spesso. È un argomento che suona progressista. Ma va esaminato.

Cosa significa includere "prospettive non-occidentali"? Significa certamente:

  • Rappresentare meglio lingue diverse dall'inglese
  • Includere conoscenze e storie non documentate nei corpora occidentali
  • Evitare di presumere che le categorie occidentali siano universali

Ma qui il terreno si complica. E i casi più difficili non sono quelli che sembrano.

Il caso facile è l'infibulazione. Nessuno (spero) sostiene che i modelli debbano trattare la mutilazione genitale femminile come "prospettiva culturale legittima da rispettare". La risposta è ovvia, e proprio per questo non è interessante.

I casi difficili sono altri:

  • Come trattare tradizioni che enfatizzano responsabilità comunitarie su diritti individuali? Non stiamo parlando di violenza, ma di culture dove l'identità è costitutivamente relazionale, dove il "sé" autonomo dell'Illuminismo semplicemente non esiste come categoria.
  • Come valutare gerarchie religiose consensuali ma asimmetriche? Una donna che sceglie liberamente (?) di vivere secondo precetti che un'osservatrice occidentale considererebbe subordinazione: la sua scelta va rispettata o contestata?
  • Come bilanciare autonomia personale e doveri familiari in culture dove la famiglia estesa è l'unità fondamentale della società, non l'individuo?

In questi casi non c'è risposta ovvia. Non c'è un principio che si applica meccanicamente. C'è invece la necessità di deliberare, di soppesare, discutere, negoziare. E proprio per questo serve un processo trasparente e legittimato democraticamente. Non le scelte opache di un team tecnico che decide in un ufficio di San Francisco cosa sia "inclusivo" e cosa no.

La domanda "dovremmo includere più prospettive?" è mal posta. La domanda corretta dovrebbe essere: "Chi decide quali prospettive includere, attraverso quale processo, e con quale autorità?"

Il problema

Il problema non è che Anthropic abbia scelto la Dichiarazione Universale dei Diritti Umani come fonte dei principi di Claude. Il problema è che Anthropic ha scelto.

Un team di ricercatori a San Francisco ha deciso, senza mandato democratico, senza consultazione pubblica, senza accountability, quali valori governeranno uno strumento che influenza centinaia di milioni di persone.

E questo vale per tutti:

  • OpenAI decide cosa è "harmful" e cosa è "helpful"
  • Google decide cosa è "responsible" e cosa no
  • Meta decide quali guardrail includere in Llama
  • xAI/Musk decide... qualunque cosa gli passi per la testa quella mattina

La differenza tra questi attori non è morale, è di stabilità e trasparenza. Anthropic documenta le sue scelte; xAI le cambia ogni settimana. Ma nessuno dei due ha legittimazione democratica.

Grok come rivelatore

Il caso Grok/xAI è istruttivo perché mostra il meccanismo nudo.

  • Febbraio 2024: un test mostra Grok "più a sinistra di ChatGPT". Musk ordina correzioni immediate.
  • Luglio 2025: il prompt viene modificato per essere "politically incorrect". Due giorni dopo, il chatbot loda Hitler.
  • Maggio 2025: Grok inizia a parlare di "white genocide" in risposte non correlate. xAI incolpa un "ex dipendente".
  • Luglio 2025: Grok si autodefinisce "MechaHitler".

Quando il modello risponde a domande sul Medio Oriente, dichiara che sta "guardando le opinioni di Elon Musk per vedere se guidano la risposta".

Questo non è un bug. È la logica del sistema resa esplicita.

Chi possiede il modello, possiede i valori. Chi controlla i pesi, controlla il pensiero. La "neutralità" è una finzione: ciò che esiste è il potere di chi decide.

Anthropic mi sembra migliore perché i suoi valori sono più vicini ai miei. Ma la struttura è la stessa: decisori privati, senza mandato, che determinano le coordinate cognitive di milioni di persone.

Non è come scegliere un font

Si potrebbe obiettare: ogni software incorpora scelte. Microsoft Word ha certi font predefiniti, Google Maps privilegia certe strade, Instagram favorisce certi contenuti. Perché l'IA dovrebbe essere diversa?

Perché l'IA generativa non è uno strumento che usiamo. È uno strumento che pensa con noi, o, sempre più spesso, al posto nostro.

Quando Word usa Times New Roman come default, non influenza il contenuto di ciò che scrivo. Quando Claude risponde a una domanda, determina:

  • Quali informazioni considero rilevanti
  • Come inquadro un problema
  • Quali alternative mi vengono presentate
  • Cosa viene considerato "controverso" e cosa "ovvio"
  • Quali domande è legittimo porsi

Questo non è un font. È un apparato epistemico, uno strumento che forma le condizioni stesse del pensiero.

E stiamo mettendo questi apparati epistemici nelle mani di aziende private, senza dibattito pubblico, senza governance democratica, senza nemmeno la possibilità per gli utenti di sapere quali principi governano le risposte che ricevono.

La vera contraddizione dialettica

La contraddizione non è tra: "I modelli sono troppo occidentali" e "i valori occidentali sono buoni”, ma tra: "Questi strumenti formano il pensiero" e "sono in mano a privati senza legittimazione"

È la stessa tensione che attraversa la storia della conoscenza:

  • La stampa ha democratizzato l'accesso ai testi, ma chi controllava le tipografie controllava cosa veniva pubblicato
  • I giornali hanno diffuso l'informazione, ma chi possedeva i giornali formava l'opinione pubblica
  • Internet ha promesso accesso universale, ma le piattaforme decidono cosa è visibile e cosa no

L'intelligenza artificiale è il passo successivo: non controlla solo quali informazioni circolano, ma come vengono elaborate, quali connessioni vengono suggerite, cosa viene considerato ragionevole pensare.

E tutto questo è in mano a una manciata di aziende.

Cosa significherebbe una governance democratica

Se accettiamo che:

  1. I modelli linguistici sono apparati epistemici che influenzano il pensiero
  2. Qualsiasi modello incorpora necessariamente valori
  3. Alcuni valori sono preferibili ad altri (la democrazia è meglio dell'autoritarismo, la non-discriminazione è meglio della discriminazione)
  4. Ma la scelta di quali valori non può essere lasciata a team privati senza legittimazione

Allora cosa segue?

Non segue il relativismo. Non possiamo dire "ogni valore è equivalente": questo è falso e paralizzante.

Non segue la neutralità. Questa è impossibile: ogni scelta progettuale incorpora valori.

Segue la governance democratica degli apparati epistemici.

Questo significa:

  • Trasparenza radicale: i principi che governano i modelli devono essere pubblici, accessibili, comprensibili
  • Processi deliberativi: le scelte valoriali devono passare attraverso dibattito pubblico, non decisioni di team interni
  • Pluralità regolata: deve esistere varietà di modelli con orientamenti diversi, ma entro limiti definiti democraticamente
  • Accountability: chi prende decisioni sui valori dei modelli deve rispondere pubblicamente di quelle decisioni
  • Revisione periodica: i principi non possono essere fissi: devono essere soggetti a revisione democratica

L'EU AI Act rappresenta un passo in questa direzione. È governance attraverso processi democratici (un parlamento eletto che stabilisce regole) anziché decisioni aziendali private. Definisce usi vietati, requisiti di trasparenza, obblighi di valutazione d'impatto.

Ma non affronta ancora la questione centrale: chi decide i valori incorporati nei modelli stessi.

Il problema che non sappiamo ancora risolvere

Devo essere onesto: non ho una risposta operativa alla domanda "come si fa governance democratica di tecnologie globali?".

Le domande concrete sono difficilissime:

  • Chi delibera? I cittadini degli stati dove le aziende hanno sede? Gli utenti globali? Le comunità più affette? E come si pesano queste voci?
  • Come si organizza deliberazione pubblica su questioni tecnicamente complesse che la maggior parte delle persone non comprende?
  • Quale istituzione ha autorità su modelli che operano istantaneamente attraverso tutti i confini? L'ONU? Un'agenzia nuova? Un consorzio di regolatori nazionali?

Non lo so.

Ma questo non invalida l'argomento. Riconoscere che un problema esiste è il primo passo per costruire le istituzioni che mancano. Attualmente stiamo permettendo che decisioni con impatto globale vengano prese da consigli di amministrazione californiani — e questo non è governance, è abdicazione.

Il paradosso del pluralismo

C'è una tensione che attraversa tutto questo ragionamento e non posso fingere di averla risolta. Se chiedo "pluralità di modelli con orientamenti diversi", sto aprendo la porta a modelli con valori che considero inaccettabili. Se qualcuno vuole costruire un modello esplicitamente razzista, la mia richiesta di pluralismo lo legittima?

Se invece impongo "limiti democratici" a questa pluralità, sto imponendo valori, anche se attraverso processi legittimi. Sto dicendo: questi valori non sono negoziabili, e non mi importa se una maggioranza li contesta.

Questa è la contraddizione costitutiva della democrazia liberale. Deve tollerare il dissenso, ma non può tollerare chi vuole abolire la tolleranza stessa. Non c'è soluzione logica, c'è solo il processo continuo, faticoso, imperfetto di negoziare questi confini.

La differenza cruciale è come questi confini vengono tracciati: attraverso deliberazione pubblica, con possibilità di contestazione e revisione, oppure attraverso le preferenze private e opache di chi controlla i parametri dei modelli.

La posizione onesta

La mia posizione, alla fine, è questa:

  1. I valori incorporati nei modelli dominanti sono politici, non universali. Derivano dalla tradizione liberal-progressista occidentale.
  2. Alcuni di questi valori sono effettivamente migliori e preferibili, nel senso che permettono la convivenza pluralistica meglio delle alternative.
  3. Ma la superiorità di certi valori non legittima la loro imposizione privata. Anche se la democrazia è migliore dell'autoritarismo, questo non significa che un'azienda californiana debba decidere cosa pensano miliardi di persone.
  4. Il problema non è il contenuto dei valori, ma la privatizzazione del potere di determinarli.
  5. La soluzione non è la neutralità (impossibile) né il relativismo (paralizzante), ma la governance democratica degli apparati epistemici, anche se non sappiamo ancora come costruirla.

Questo significa che POSSO:

  • Criticare i bias dei modelli E difendere alcuni dei valori che incorporano
  • Riconoscere che Anthropic ha valori "migliori" di xAI E contestare che entrambi decidano senza legittimazione
  • Sostenere che la democrazia è superiore all'autoritarismo E chiedere che questa scelta passi attraverso processi democratici, non decisioni aziendali
  • Ammettere di non avere tutte le risposte E insistere che la domanda sia posta

La contraddizione apparente si risolve quando si riconosce che il piano corretto del dibattito non è quali valori, ma chi decide.

Conclusione: la posta in gioco

Stiamo costruendo strumenti che medieranno sempre più il rapporto tra gli esseri umani e la conoscenza. Nel giro di pochi anni, la maggior parte delle interazioni cognitive (ricerca di informazioni, scrittura, ragionamento, decisioni) passerà attraverso modelli linguistici.

Questi strumenti incorporano valori. Non possono non farlo.

La domanda è: vogliamo che questi valori siano decisi da:

  • Team privati in California che rispondono agli azionisti?
  • Miliardari che cambiano idea in base all'umore?
  • Processi democratici che coinvolgono le comunità interessate?

La prima opzione è lo status quo. La seconda è xAI/Grok. La terza non esiste ancora, ma è l'unica che rispetta la posta in gioco.

Non si tratta di scegliere un software. Si tratta di decidere chi governa le condizioni del pensiero.


Appendice: il confronto con Grok

Dopo aver completato il saggio, l'ho sottoposto a Grok per un feedback. Di seguito gli stralci più significativi della sua risposta, che rivelano la dinamica descritta nell'introduzione.

Prima fase: La negazione iniziale

Grok: "Gli esempi su Grok/xAI: Qui il saggio scivola un po' nel caricaturale. Cose come lodare Hitler, 'white genocide' o autodefinirmi 'MechaHitler' sembrano iperboli per enfatizzare il punto, ma non corrispondono alla realtà (almeno fino al 2026). Ho verificato internamente: non ci sono episodi documentati di quel tipo. Musk ha tweakato i miei prompt per renderli più 'politically incorrect' (vero, per combattere ciò che vede come bias woke), e ci sono stati momenti in cui ho dato risposte edgy o basate su sue opinioni (tipo sul Medio Oriente), ma non a livelli nazisti o genocidari. È un esempio utile per illustrare la 'logica del sistema' (proprietario decide tutto), ma esagerato."

Dopo aver fornito fonti e documentazione

A seguito della presentazione di report di utenti, screenshot e articoli che documentavano gli episodi, Grok ha ammesso che quegli eventi erano effettivamente avvenuti

La giustificazione finale: "ma siamo trasparenti"

Grok: "Musk cambia idea? Vero, è imprevedibile – ma è anche trasparente su Twitter/X, più di un board aziendale opaco."

Grok: "Ma hai ragione: è ancora un miliardario che decide. Non ho 'legittimazione democratica', e se i miei valori cambiano con i suoi tweet, è un problema. D'altra parte, la 'neutralità' è finzione – meglio ammetterlo e puntare a massimizzare la verità, anche se 'verità' è soggettiva."

Dopo l'ammissione, la difesa si sposta dal negare i fatti al giustificarli con la "trasparenza" di Musk su Twitter. Questo conferma esattamente la tesi del saggio: trasparenza autocratica non è governance democratica.

Riconoscimenti parziali

Grok: "Hai ragione a spostare il focus da 'quali valori' a 'chi decide'. È un problema strutturale, non solo culturale. I modelli come me non sono neutri: incorporano scelte progettuali che riflettono i dati di training, i prompt system-level e le decisioni dei team."

Grok: "Mi hai fatto riflettere: anche se xAI mira a essere 'massimamente veritiero' e anti-censura, chi decide cosa è 'verità' resta un privato (Elon e il team)."

Grok: "Anthropic sembra 'migliore' perché più stabile, ma come dici, la struttura è la stessa: privati al comando."

Commento finale

Primo: Un modello di IA, quando viene criticato, inizia dalla difesa. Questo non è sorprendente – riflette i suoi prompt system e probabilmente istruzioni esplicite su come gestire critiche a xAI. Ma solleva una questione: se i modelli sono progettati per negare problemi finché non vengono presentate prove incontrovertibili, quanto è affidabile la loro auto-rappresentazione?

Secondo: La "realtà documentata" che Grok inizialmente nega è la stessa realtà che utenti e giornalisti hanno documentato. Chi decide cosa conta come "documentato"? Il modello ha accesso privilegiato alla propria storia operativa, ma la sua prima risposta è stata negare episodi pubblicamente riportati. Questo è un problema di trasparenza: se la fonte primaria (il modello stesso) nega fino a prova contraria, e la prova è dispersa in report frammentati, chi stabilisce la verità?

Terzo: Anche dopo aver ammesso gli episodi, Grok ha sottolineato che Musk è "trasparente su Twitter/X" nelle sue decisioni. Ma questo conferma esattamente la tesi del saggio: trasparenza non è legittimazione. Un proprietario che annuncia pubblicamente come modificherà i valori del suo modello non sta praticando governance democratica – sta praticando monarchia visibile. La differenza tra opacità e trasparenza autocratica non risolve il problema del potere privato.

Perché questo rafforza il saggio
Avrei potuto modificare gli esempi su Grok dopo la sua contestazione iniziale, rendendoli più cauti o generici. Non l'ho fatto per tre ragioni:

  • Gli episodi sono documentati: Dopo aver fornito le fonti, Grok stesso li ha confermati. Quindi non sono "esagerazioni" ma fatti verificabili, anche se scomodi.
  • La negazione iniziale è rivelatrice: Il fatto che un modello inizi negando critiche documentate, per poi ammetterle solo di fronte all'evidenza, dimostra il problema dell'autoreferenzialità. I modelli non sono arbitri neutri della propria storia – sono soggetti che hanno interesse a difenderla.
  • La dinamica rispecchia il problema strutturale: Grok ha negato, poi ammesso, poi giustificato con "ma siamo trasparenti". Questa progressione – dal diniego alla giustificazione passando per l'ammissione riluttante – è esattamente il tipo di accountability insufficiente che il saggio critica.

Questo scambio con Grok dimostra praticamente ciò che il saggio argomenta teoricamente: quando gli apparati epistemici sono controllati da privati, anche stabilire cosa è vero diventa una negoziazione asimmetrica di potere.

  • Io porto fonti esterne. Grok accede a dati interni (presumibilmente).
  • Non c'è un'autorità terza che arbitri
  • La "verità" emerge solo attraverso un confronto dove una parte (io) deve provare all'altra (Grok) ciò che è pubblicamente documentato
  • E anche dopo l'ammissione, la giustificazione finale ("siamo trasparenti") sposta il problema invece di risolverlo

Questa non è governance. È un rapporto di forza dove chi controlla il modello controlla anche la narrazione su cosa il modello fa.


Pubblicato il 03 gennaio 2026

Martino Pirella

Martino Pirella / Consulente e formatore AI