Chi ha deciso che il pensiero collettivo dell'umanità dovesse transitare attraverso infrastrutture progettate a San Francisco, Pechino e Redmond?
Quasi nessuno la sta facendo, questa domanda, almeno non nel modo giusto. Mentre i governi discutono di regolazione algoritmica, tariffe sui semiconduttori e clausole sull'export dei modelli, la questione reale rimane fuori campo, sepolta sotto il peso di una terminologia tecnica che funziona, tra l'altro, come primo dispositivo di colonizzazione epistemica.
Perché di colonizzazione si tratta. La geopolitica tradizionale competeva per territori, rotte commerciali, giacimenti. Secondo un'analisi apparsa su European Affairs Magazine nel dicembre 2025 (La geopolitica dell'intelligenza artificiale: potere, sicurezza e governance nel nuovo ordine algoritmico), la distribuzione del potere internazionale nel XXI secolo non è più determinata esclusivamente dal controllo territoriale o dalla superiorità militare convenzionale: l'IA ne riconfigura le forme di legittimazione e gli spazi di esercizio in senso weberiano.
Il territorio in palio oggi è la struttura cognitiva attraverso cui miliardi di persone interpretano la realtà, formulano giudizi, costruiscono narrazioni. Chiamarla "geopolitica della mente" non è più metafora accademica ma la descrizione più precisa disponibile di quello che sta accadendo.
Proviamo a essere esatti su cosa intendo.
La competizione cognitiva globale si articola su tre piani sovrapposti, che si rinforzano a vicenda con una coerenza che nessuna strategia deliberata avrebbe potuto produrre meglio.
Il primo piano è quello infrastrutturale. Il cosiddetto AI nationalism, analizzato dalla rivista Sicurezza e Giustizia (Intelligenza artificiale e geopolitica: sovranità, escalation e innovazione predittiva, 2025), designa l'orientamento strategico degli Stati a innalzare l'intelligenza artificiale a infrastruttura critica di interesse nazionale, con il risultato di trasformare l'internet "aperto" in una costellazione di ecosistemi chiusi.
I modelli linguistici di larga scala sono le nuove autostrade cognitive: chi le costruisce decide quali parole esistono, quali concetti si toccano, quali nessi causali sembrano naturali.
Un caso apparentemente minore illumina la struttura del problema meglio di qualsiasi manifesto teorico: come documenta la recensione pubblicata su Vision and Global Trends (Nuovi approcci teorici allo studio della geopolitica, 2026), il Kazakhstan sta sviluppando Large Language Models nativi addestrati su corpora in lingua kazaka e russa come leva geopolitica per preservare la propria identità culturale dall'egemonia anglofona. Uno Stato di cinquanta milioni di abitanti ha capito che lasciare la propria lingua fuori dai modelli significa lasciare la propria realtà fuori dall'episteme dominante. Quanti ministeri dell'istruzione europei hanno ragionato con la stessa chiarezza?
Il secondo piano è quello simbolico. Le piattaforme non trasmettono semplicemente informazioni: producono frame cognitivi, gerarchie di plausibilità, grammatiche del possibile. Rivista AI ha pubblicato nell'aprile 2026 un articolo intitolato La resa cognitiva in cui la domanda centrale non riguarda la sostituzione del lavoro umano, bensì la sostituzione del processo attraverso cui definiamo ciò che è vero, corretto o accettabile — una questione epistemologica prima che tecnologica. Eppure questa domanda viene sistematicamente convertita in una questione di efficienza, di ROI, di gestione del rischio aziendale. La deformazione è già in atto: non nei contenuti generati, ma nel fatto che il problema stesso venga formulato in quei termini. Chi impone la grammatica con cui si pensa un problema ha già vinto prima che il problema venga discusso.
Il terzo piano, quello relazionale, è anche il più trascurato. La governance delle relazioni cognitive ibride tra umani e sistemi artificiali non è un tema per filosofi della tecnologia: è il vero teatro della competizione simbolica tra modelli di civiltà. Arthur Mensch di Mistral AI — come riportato da Rivista AI nell'aprile 2026 — ha avvertito che l'Europa non può permettersi di diventare una "colonia dell'IA": se le infrastrutture critiche dipendono da fornitori esterni, un semplice interruttore potrebbe disattivare interi sistemi di informazione.
Il problema, però, va oltre la dipendenza infrastrutturale e il rischio più profondo è la dipendenza del significato stesso di senso: la progressiva incapacità di generare pensiero che non transiti attraverso architetture cognitive altrui. Come mostra un articolo pubblicato su StultiferaNavis (Pensano o no? Lo statuto epistemico dei modelli linguistici generativi, 2026), i LLM co-costruiscono forme di conoscenza con l'ambiente umano-tecnico in cui sono immersi e quell'ambiente, purtroppo, non è neutro. Ha una lingua privilegiata, una cultura privilegiata, una gerarchia di concetti che rispecchia le scelte di addestramento di chi li ha costruiti.
La risposta prevalente a tutto questo è quella che si potrebbe chiamare il pragmatismo della resilienza. Boston Consulting Group, secondo un'analisi ripresa da Rivista AI nell'aprile 2026 (BCG: sovranità digitale o illusione strategica?), propone di smettere di inseguire la sovranità totale e di concentrarsi sulla resilienza: non il possesso, ma il controllo operativo; non l'isolamento, ma la capacità di funzionare dentro un sistema interdipendente. È una posizione intellettualmente onesta, per certi aspetti ammirevole nella sua sobrietà ed è anche, a mio avviso, la capitolazione travestita da saggezza strategica. Perché la resilienza dentro un sistema che altri hanno progettato non è sovranità ma sopravvivenza amministrata. Di fatto, accetti le regole del campo mentre negozi le condizioni della tua sconfitta.
La sovranità cognitiva — concetto che imbarazza esattamente quanto dovrebbe chi avrebbe dovuto occuparsene — non riguarda il possesso di modelli autonomi o la chiusura dei confini epistemici e ancora a meno ha a che vedere con la 'sovranità tecnologica' di per sé o il 'sovranismo' che sono concetti semplici per imbonire mercati e popolazione.
Riguarda, invece, la capacità di una comunità di produrre, validare e trasmettere conoscenza secondo categorie che non le sono state consegnate dall'esterno. La geopolitica critica, come ricostruisce la recensione apparsa su Analisi Difesa del volume Geopolitica, vettore dell'Ordine Globale (2025), legge lo spazio non come dato oggettivo ma come costruzione discorsiva e strumento di legittimazione: se questo vale per lo spazio fisico, vale con ancora maggiore forza per lo spazio cognitivo, che è più permeabile, più malleabile e molto meno visibile.
Non vedi il confine quando lo attraversi e purtroppo non senti il momento in cui smetti di pensare in categorie tue.
L'ignoranza che galoppa intorno a questo tema non è casuale, e sarebbe ingenuo trattarla come tale. Conviene a chi ha costruito l'infrastruttura che i suoi utenti la usino senza interrogarsi su chi abbia deciso la sua architettura. Come osserva un'analisi pubblicata su DPCE Online sulla 'rottura di senso' nei sistemi di governance (Trump e la frattura epistemica dello Stato, 2025), l'intelligenza artificiale come infrastruttura di sovranità trasforma il senso stesso del governare: prevedere equivale a decidere, e chi controlla la previsione controlla la decisione. Ora prevedere è un concetto un poco astratto e poco efficace quando si parla di tecnologie generative e adattive ma accontentiamoci di questa ulteriore semplificazione in luogo di un concetto di governance dinamica di un sistema di tecnologie emergenti distruttive (EDT).
Questo vale per gli Stati, ma vale anche — e forse soprattutto — per i sistemi educativi, per le istituzioni culturali, per le università che stanno adottando acriticamente strumenti cognitivi di cui non comprendono l'architettura profonda (e spesso neppure il potenziale).
Eppure, il problema più serio non è che qualcuno abbia progettato questa architettura al nostro posto. Il problema serio, quello di cui non si discute in quasi nessuna sede, è che, nel frattempo, abbiamo smesso di accorgerci che esisteva un'architettura e che questa era funzionale ad un fine.
Le generazioni che verranno non erediteranno solo infrastrutture tecnologiche dipendenti: erediteranno, peggio, categorie mentali già formate, domande già selezionate, confini di senso già tracciati che chiameranno pensiero.
Il treno della sovranità cognitiva non è in ritardo. È partito, e la maggior parte di chi avrebbe dovuto salire stava ancora discutendo se il biglietto fosse troppo caro.