Intelligenza Artificiale, potere cognitivo e manipolazione
Avram Noam Chomsky – linguista, filosofo e attivista, docente emerito al MIT e figura centrale del pensiero critico contemporaneo – ha mostrato come il linguaggio non sia solo uno strumento di comunicazione, ma una tecnologia sociale capace di strutturare il consenso, delimitare l’orizzonte del pensabile e rendere “naturali” rapporti di potere storicamente determinati.
Le sue analisi sui media, sulla propaganda e sulla fabbrica del consenso non riguardano semplicemente la comunicazione, ma il modo in cui le società avanzate governano le popolazioni senza ricorrere alla coercizione esplicita.
Questa sorta di decalogo delle strategie di manipolazione pur non essendo, chiaramente, un testo scritto da Chomsky, prende spunto dalle sue teorie. Infatti, quest’ultime, rilette oggi, nell’epoca dell’Intelligenza Artificiale, acquistano una nuova profondità: l’IA non introduce ex novo la manipolazione, ma la automatizza e la rende strutturale. L’IA non nasce nel vuoto, ma si innesta in ecosistemi economici, politici e culturali già segnati da asimmetrie di potere, amplificandole attraverso il controllo cognitivo.
1. Strategia della distrazione
Nelle società digitalizzate l’attenzione è diventata una delle risorse economiche primarie; con la contrazione dello spazio/tempo (di Baumaniana memoria), i sistemi di Intelligenza Artificiale, ottimizzati per massimizzare engagement e permanenza, producono un flusso continuo di stimoli che frammenta l’esperienza ma, soprattutto, riduce la capacità di concentrazione prolungata. Mentre l’utente è immerso in feed personalizzati, contenuti effimeri e micro-notifiche, le decisioni strutturali – su lavoro, redistribuzione, Governance tecnologica – si spostano fuori dal campo percettivo collettivo. La distrazione non è più un effetto collaterale, ma una funzione sistemica, una tecnologia di governo delle masse.
2. Creare problemi e offrire soluzioni
Per gli avvenimenti geopolitici e sociali che stiamo vivendo manca poco perché L’IA venga presentata come risposta inevitabile a crisi che il sistema socio-economico ha contribuito a generare: precarizzazione del lavoro, sovraccarico informativo, inefficienze organizzative, débâcle politica/istituzionale. Sembra quasi un “caos” organizzato affinché l’automazione non sia una scelta politica, ma quasi una necessità tecnica. Il modello “problema–reazione–soluzione” si traduce oggi in architetture algoritmiche che trasformano disfunzioni sistemiche in opportunità di espansione tecnologica, neutralizzando il conflitto e rendendo la soluzione apparentemente incontestabile.
3. La gradualità
Analizziamo il cosiddetto progresso tecnologico dall’esterno: tralasciando il grammofono (1877), partiamo dai dischi vinile (1948) per approdare alle musicassette (1963) e Walkman (1979) e poi CD (1982), lettore MP3 (1998), IPOD (2001), musica streaming (2011…, ecco l’introduzione dell’IA sta seguendo lo stesso iter in tempi, però, molto più ridotti (proprio perché lo spazio/tempo si è completamente dissolto), ovvero per soglie minime, quasi impercettibili. Una funzione di supporto oggi, una raccomandazione domani, una decisione automatizzata dopodomani. E questi processi di normalizzazione progressiva riducono la possibilità di resistenza sociale, perché non esiste un momento di rottura evidente. La trasformazione è lenta, cumulativa e, proprio per questo, profondamente efficace nel ridefinire ciò che viene percepito, casomai un tempo inaccettabile, come accettabile.
4. Il differimento
Le conseguenze critiche dell’automazione – disoccupazione strutturale, perdita di autonomia decisionale, concentrazione del potere cognitivo – vengono sistematicamente rinviate nel discorso pubblico. Il futuro diventa una zona di sacrificio permanente: non siamo ancora lì, la tecnologia non è matura, i problemi verranno affrontati più avanti. Nel frattempo, l’infrastruttura tecnica, economica e normativa si consolida, rendendo sempre più difficile qualsiasi inversione di rotta. Qui si potrebbe aprire un dibattito enorme parafrasando Sabino Cassese, quando afferma che la globalizzazione giuridica non riesce a stare al passo della globalizzazione economica (casomai in un altro articolo)
5. Infantilizzazione del pubblico
Le interfacce guidate dall’IA puntano alla massima semplicità, riducendo la complessità dell’esperienza a scelte binarie o suggerimenti preconfezionati. Questo processo, insieme ai giochi on line, produce una progressiva deresponsabilizzazione cognitiva: l’utente non deve capire, ma solo affidarsi. La semplificazione continua non è neutrale, perché riduce lo spazio del giudizio critico e trasforma l’autonomia in dipendenza funzionale.
6. Prevalenza dell’emozione sulla riflessione
Gli algoritmi di raccomandazione privilegiano contenuti emotivamente polarizzanti, perché più redditizi in termini di attenzione. La differenza è sottile: l’IA non inventa la manipolazione emotiva (non sarebbe almeno ad oggi in grado), ma la rende sistematica e scientificamente ottimizzata. La sfera pubblica viene così riorganizzata attorno a reazioni affettive rapide, a scapito della deliberazione razionale e del pensiero complesso. Tic Tok docet…
7. Ignoranza tecnologica strutturale
La crescente complessità dei sistemi di IA produce un divario cognitivo tra chi li progetta, li governa e li comprende, e chi li utilizza o li subisce. Questa asimmetria non è accidentale: è una forma di potere. L’opacità tecnica diventa opacità politica, perché rende impossibile un controllo democratico effettivo sui processi decisionali automatizzati.
8. Normalizzazione della mediocrità
In un contesto in cui il pensiero complesso può essere delegato, la competenza critica perde valore sociale. L’obiettivo non è più comprendere, ma adattarsi. Il sistema premia la conformità funzionale piuttosto che l’eccellenza riflessiva. L’IA, in questo senso, contribuisce a una standardizzazione delle capacità cognitive, riducendo la diversità dei modi di pensare.
9. Auto-colpevolizzazione
Il fallimento individuale viene interpretato come incapacità personale di stare al passo con l’innovazione e, come già accennato, la responsabilità del sistema economico - sociale scompare dal discorso pubblico. Il problema è che chi resta indietro interiorizza la colpa, invece di indagare i criteri con cui lavoro, produttività e reddito vengono ridefiniti dalla tecnologia.
10. Conoscere gli individui meglio di quanto essi conoscano se stessi
Con la profilazione algoritmica e la predizione comportamentale, il potere assume una forma anticipatoria e, in questo senso, l’IA non si limita a reagire ai comportamenti, ma li prevede e li orienta. In questo scenario, il controllo non passa più dalla repressione, ma dalla modellazione delle possibilità stesse di scelta.
Parafrasando, quindi, Noam Chomsky, non deve essere demonizzata la tecnologia; andrebbero smascherate le strutture di potere che sfruttano la tecnologia per rafforzare il proprio potere economico e sociale utilizzando anche l’Intelligenza Artificiale come moltiplicatore di potere cognitivo. Senza una Governance democratica, senza alfabetizzazione critica e senza un pensiero sociologico capace di leggere le dinamiche sistemiche, il rischio non è un futuro distopico improvviso, ma una normalizzazione silenziosa di forme di controllo che diventano invisibili proprio perché tecnicamente efficienti.
Cosa possiamo fare noi, individualmente? Semplicemente non arrenderci, non accettare passivamente il potere cognitivo dall’alto e provare a ricreare un dibattito pubblico oggi sempre più debole.