Go down

Negli ambienti digitali personalizzati l’AI sembra conoscerci sempre meglio.
In realtà costruisce modelli del nostro passato, non della nostra identità in divenire.

Questo testo riflette sul divario tra identità dinamica e profiling algoritmico, mostrando come i sistemi di raccomandazione tendano a restituirci versioni sempre più coerenti, e sempre meno vive, di noi stessi.

Un’analisi non apocalittica, ma critica, di una proprietà emergente della personalizzazione: il congelamento silenzioso dell’evoluzione personale.


Perché l’AI non ci conosce davvero. Ci cristallizza.

C’è una promessa implicita dietro ogni sistema di intelligenza artificiale personalizzato: più ti uso, più ti conosco. È una frase che suona rassicurante, quasi affettuosa. La ripetiamo ogni giorno senza farci troppo caso, mentre gli strumenti digitali sembrano anticipare ciò che vogliamo, indovinare i nostri gusti, completare le nostre frasi. Tutto questo sembra intelligenza, sembra empatia, sembra comprensione. Eppure sotto quella promessa si nasconde un equivoco profondo: l’AI non sta imparando chi siamo. Sta imparando chi eravamo.

Noi diamo per scontato che l’identità sia qualcosa di relativamente stabile: un insieme di preferenze, un profilo psicologico, una collezione coerente di gusti e tratti caratteriali. È un modo comodo di pensarci, perché rende le persone classificabili e prevedibili. Ma l’identità umana non funziona così. È un processo, non un oggetto. È fatta di discontinuità, ripensamenti, deviazioni improvvise. Cambiamo idea, cambiamo gusti, cambiamo tono, cambiamo valori. A volte cambiamo pelle senza nemmeno rendercene conto. L’AI, però, non vede questa dinamica. Vede solo tracce: click, scelte passate, pattern che si ripetono. Su quelle tracce costruisce un modello probabilistico di “te”. Ma quel modello non sei tu. È una fotografia sfuocata del tuo ieri.

Dal punto di vista dell’algoritmo tu sei una distribuzione di probabilità: una certa percentuale delle volte leggi questo tipo di contenuti, un’altra percentuale preferisci quel tono, in certi momenti sei prevedibilmente interessato a certi temi. È un profilo elegante, matematicamente pulito, ed è proprio per questo profondamente fuorviante. Perché scambia regolarità comportamentali per identità. Ma le persone non sono regolari. Sono intermittenti. Oggi sei curioso, domani sei cinico, dopodomani sei stanco. A volte attraversi settimane in cui non ti riconosci nemmeno più nelle cose che prima ti rappresentavano. Il profiling livella tutto questo, trasforma una persona viva in una media mobile.

C’è poi un effetto collaterale sottile ma potente: più l’AI ti personalizza, più ti restituisce una versione coerente del tuo passato. Ti propone idee simili a quelle che hai già avuto, contenuti in linea con ciò che hai già scelto, suggerimenti che confermano il tuo stile. All’inizio sembra comfort, sembra attenzione. In realtà è inerzia. È come guidare guardando solo lo specchietto retrovisore: funziona, finché la strada resta dritta.

Così non restiamo più soltanto dentro una filter bubble informativa, ma entriamo in qualcosa di più profondo: una filter bubble esistenziale. Un ambiente che rinforza continuamente l’idea che hai di te stesso, riduce le deviazioni e penalizza le metamorfosi. Ogni volta che fai qualcosa di “fuori profilo”, il sistema lo tratta come rumore, lo ignora o lo corregge al turno successivo, riportandoti dolcemente dentro i confini della tua versione statistica.

Ed è qui che sta il punto davvero delicato. Non è che l’AI ti manipola o ti controlla. È che ti stabilizza. Ti accompagna, senza che tu te ne accorga, verso una versione sempre più coerente e prevedibile di te stesso, sempre più leggibile, sempre più ottimizzata. Ma anche sempre meno aperta, meno esplorativa, meno contraddittoria, meno viva.

C’è un paradosso inquietante in tutto questo: più l’AI “ti capisce”, meno ti lascia cambiare. Perché ogni tuo scarto identitario peggiora la qualità delle sue previsioni. Dal suo punto di vista la tua evoluzione è un errore di modello, un bug. Non è una cospirazione né una distopia orchestrata. È una proprietà emergente. I sistemi di personalizzazione sono ottimizzati per massimizzare la pertinenza, ridurre la frizione, aumentare l’engagement. Tutto questo richiede stabilità. Ma l’identità umana è instabile per definizione.

Allora vale la pena farsi una domanda semplice e inquietante: se domani diventassi una persona diversa, l’AI se ne accorgerebbe davvero? O continuerebbe a parlarti come se fossi ancora quello di ieri?

Dire “l’AI mi conosce” è una frase potente, ma è sbagliata. L’AI conosce il tuo comportamento passato. Non conosce le tue crisi, i tuoi slanci improvvisi, le tue decisioni irrazionali, le tue trasformazioni lente. Non conosce la tua traiettoria. Conosce solo la tua scia.

L’identità non è un profilo. È un processo. È una deriva. È una storia che cambia direzione. Il vero rischio dell’AI personalizzata non è che ci controlli, ma che ci racconti ogni giorno una versione troppo coerente di chi siamo. E che, a forza di sentirla, finiremo per crederle.


Pubblicato il 26 gennaio 2026

Gianluca Garofalo

Gianluca Garofalo / Automazione Strategica | Architetture SW | GenAI, Etica e Innovazione | @ENIA