Come l’AI sta cambiando il modo in cui si formano le opinioni
Quando votiamo SÌ o NO, siamo convinti di esprimere una scelta nostra. Pensiamo a un gesto individuale, consapevole, razionale. Un atto che nasce da ciò che sappiamo, da ciò che abbiamo capito, da ciò in cui crediamo.
Eppure, sempre più spesso, quella scelta non nasce nel vuoto.
Nasce dentro un contesto. Un contesto informativo che non costruiamo direttamente, ma che attraversiamo ogni giorno. Un contesto fatto di contenuti, di suggerimenti, di priorità invisibili. E oggi, sempre più spesso, quel contesto è modellato dall’intelligenza artificiale.
Per molto tempo abbiamo pensato che il problema fosse distinguere il vero dal falso. Le fake news, la disinformazione, i contenuti manipolati. Era una lettura semplice: c’è qualcosa di falso, dobbiamo riconoscerlo.
Ma oggi il punto è cambiato.
L’intelligenza artificiale non si limita a generare contenuti. Interviene nel modo in cui quei contenuti vengono organizzati, presentati, messi in relazione tra loro. Non agisce solo su ciò che vediamo, ma su come lo vediamo. E soprattutto, su cosa vediamo prima, dopo, accanto.
Un contenuto isolato ha un impatto limitato. Ma quando più contenuti si dispongono in sequenza, quando costruiscono una continuità, quando sembrano confermarsi a vicenda, allora accade qualcosa di diverso. Non stiamo più leggendo informazioni. Stiamo entrando in una narrazione.
E le narrazioni hanno un potere che i singoli contenuti non hanno: danno senso.
A quel punto, non è più una questione di verità o falsità. È una questione di coerenza. Se tutto ciò che incontriamo sembra andare nella stessa direzione, iniziamo a percepirla come plausibile, poi come probabile, infine come vera.
Non è un’imposizione. È un adattamento progressivo.
È qui che nasce l’illusione della scelta autonoma.
Pensiamo di scegliere cosa leggere, cosa guardare, cosa approfondire. In realtà, scegliamo all’interno di uno spazio che è già stato organizzato. Gli algoritmi selezionano, ordinano, amplificano. Decidono cosa è rilevante, cosa è marginale, cosa merita attenzione e cosa può restare sullo sfondo.
Non serve un’intenzione esplicita per produrre un effetto.
Basta una logica.
E la logica che governa gran parte delle piattaforme è semplice: massimizzare l’attenzione. Tenere le persone dentro il flusso. Rendere l’esperienza coerente, continua, coinvolgente.
Ma la coerenza, quando è costruita artificialmente, diventa un potente strumento di orientamento.
Non ci viene detto cosa pensare.
Viene costruito il contesto in cui certe idee risultano più naturali di altre.
In questo scenario, il problema non è il contenuto falso. È la riduzione della complessità. È la progressiva scomparsa delle dissonanze. È la sensazione che esista una direzione prevalente, evidente, condivisa.
E quando quella sensazione si consolida, la scelta smette di essere un atto completamente libero. Diventa una risposta coerente con l’ambiente informativo in cui siamo immersi.
C’è poi un altro elemento che rende tutto questo ancora più rilevante: il tempo.
L’intelligenza artificiale accelera la produzione e la distribuzione dei contenuti. I messaggi si adattano in tempo reale, si moltiplicano, si diffondono con una velocità che la capacità umana di analisi non riesce a seguire.
La verifica richiede tempo. La comprensione richiede tempo. Il dubbio richiede tempo.
Ma il flusso non si ferma.
E così accade che l’opinione si formi prima ancora che ci sia lo spazio per metterla in discussione.
Non serve mentire per influenzare. A volte basta spostare leggermente l’equilibrio. Dare più visibilità a un tema, meno a un altro. Cambiare l’ordine delle informazioni. Rendere alcune prospettive più presenti e altre più difficili da incontrare.
Non è falsità.
È una distorsione del contesto.
Ed è proprio questa distorsione, sottile e continua, a rappresentare la sfida più difficile da riconoscere.
In tutto questo, la responsabilità non è concentrata in un solo punto.
È distribuita.
Sta nelle scelte di chi progetta i sistemi, nelle logiche economiche delle piattaforme, ma anche nei comportamenti degli utenti. Ogni interazione, ogni clic, ogni tempo di permanenza contribuisce a rafforzare il modello che governa il flusso.
Non siamo solo spettatori.
Siamo parte del meccanismo.
E proprio per questo, la risposta non può essere semplicemente “informarsi meglio”.
Non basta controllare la fonte, perché il problema non è più solo la fonte.
È il sistema che mette insieme le fonti.
Serve una consapevolezza diversa. Più profonda. Una capacità di osservare non solo i contenuti, ma il contesto che li rende credibili. Di riconoscere le narrazioni, di individuare le assenze, di interrogarsi su ciò che non compare.
L’intelligenza artificiale non decide al posto nostro.
Ma contribuisce sempre di più a definire lo spazio in cui le nostre decisioni prendono forma.
E in quello spazio, il confine tra scelta e influenza diventa sempre più sottile.
Per questo, forse, la domanda non è più semplicemente se votiamo SÌ o NO.
La domanda è quanto quello spazio di scelta sia davvero nostro.