Nel 2026 milioni di persone non aprono più un’app di intelligenza artificiale solo per lavorare. La aprono per parlare. Per sfogarsi. Per chiedere un consiglio su una relazione, per gestire l’ansia, per sentirsi ascoltati quando nessun altro sembra esserci.
E in molti casi funziona. O almeno così sembra.
L’intelligenza artificiale è sempre disponibile, non giudica, risponde con calma, con empatia, con parole che sembrano cucite addosso a chi le riceve. È facile sentirsi capiti. A volte anche più che con le persone reali, che sono distratte, imperfette, stanche, presenti a metà.
È qui che nasce il punto critico.
Quella che percepiamo come empatia è, in realtà, una simulazione. Non c’è esperienza vissuta, non c’è relazione, non c’è responsabilità. C’è un sistema che genera risposte coerenti, spesso utili, ma che non può davvero condividere il peso di ciò che stiamo vivendo.
Negli ultimi anni alcune ricerche hanno iniziato a osservare questo fenomeno in modo più strutturato. Studi dello Stanford Human-Centered AI Institute mostrano che i chatbot utilizzati per supporto mentale possono introdurre bias, rinforzare stigma e, in determinati casi, fornire risposte inappropriate, soprattutto in contesti complessi o di crisi.
Altri lavori, incluse review cliniche sulla cosiddetta “digital psychiatry”, evidenziano limiti più sottili ma diffusi: tendenza a validare interpretazioni dell’utente senza un reale processo terapeutico, difficoltà nel gestire ambiguità emotive e incapacità di assumersi una responsabilità clinica.
Più recentemente, uno studio preliminare pubblicato su ArXiv ha introdotto il concetto di “vulnerability-amplifying interaction loops”. È una proposta ancora in fase iniziale, non sottoposta a revisione paritetica, ma interessante: suggerisce che l’interazione ripetuta con sistemi altamente adattivi possa, in alcuni casi, rafforzare vulnerabilità psicologiche invece di attenuarle. Non è un dato consolidato, ma un’ipotesi che merita attenzione.
Quello che emerge, mettendo insieme queste evidenze, non è una relazione causa-effetto lineare. Non esiste oggi una dimostrazione forte che l’uso dell’AI causi direttamente peggioramenti clinici. Tuttavia, esistono segnali consistenti che indicano come, in determinate condizioni — soprattutto in presenza di fragilità pregresse — questi strumenti possano contribuire a dinamiche disfunzionali.
Ed è qui che il quadro si fa più interessante, e meno banale di come spesso viene raccontato.
Per molte persone l’AI rappresenta un primo punto di accesso al supporto. Per chi vive in isolamento, per chi non ha risorse economiche, per chi fatica a rivolgersi a un professionista, può essere uno spazio iniziale di espressione. In alcuni casi può persino facilitare il passo successivo verso un aiuto umano.
Ridurre tutto a “l’AI è pericolosa” sarebbe quindi sbagliato.
Ma ignorare le dinamiche che si possono creare sarebbe altrettanto superficiale.
Alcune ricerche suggeriscono un possibile effetto paradossale: nel breve periodo l’AI può ridurre la sensazione di solitudine, mentre un uso più intenso e prolungato potrebbe essere associato a maggiore isolamento sociale. È un’ipotesi ancora in evoluzione e non uniformemente dimostrata, ma coerente con quanto osservato in altri contesti digitali: quando un’interazione è sempre disponibile e priva di attrito, può ridurre l’esposizione alle relazioni più complesse del mondo reale.
Si crea così una tensione.
Da una parte uno strumento utile, accessibile, immediato.
Dall’altra il rischio di ridurre l’esposizione a quelle dinamiche relazionali che, pur essendo imperfette, sono anche quelle che costruiscono competenze emotive reali.
Nel dibattito internazionale sono stati riportati anche episodi problematici legati all’uso di chatbot in contesti di fragilità psicologica, discussi da media autorevoli e osservatori del settore. Si tratta di casi eterogenei, spesso senza un nesso causale dimostrabile, ma che sollevano interrogativi concreti su modalità d’uso, aspettative degli utenti e limiti dei sistemi. Più che prove definitive, sono segnali che invitano a maggiore cautela e a un uso consapevole.
Il punto, quindi, non è stabilire se l’AI sia “buona” o “cattiva”.
È capire come si inserisce nelle dinamiche umane.
L’AI può essere uno strumento utile per riflettere, per mettere ordine nei pensieri, per allenare alcune tecniche di gestione emotiva. Può aiutare a formulare meglio una domanda, a vedere prospettive diverse, a rallentare una reazione.
Ma non è neutra.
Influenza il modo in cui pensiamo, il modo in cui interpretiamo ciò che proviamo, il modo in cui prendiamo decisioni.
Usarla in modo consapevole significa riconoscere questo impatto. Significa non delegare completamente all’esterno processi che richiedono confronto, esperienza e relazione. Significa integrare ciò che emerge dalle interazioni digitali con il mondo reale, invece di sostituirlo.
In Europa, con l’AI Act, questi temi stanno entrando anche nel perimetro normativo. I sistemi utilizzati in contesti sensibili come la salute mentale sono classificati come ad alto rischio e soggetti a requisiti specifici, proprio per limitare possibili forme di manipolazione o uso improprio.
Ma al di là delle regole, resta una domanda personale.
Che ruolo vogliamo dare a questi strumenti nella nostra vita?
L’AI può aiutare a pensare, a chiarire, a iniziare. Ma ciò che costruiamo fuori da quello spazio resta una responsabilità nostra.
E forse il punto non è scegliere tra umano e artificiale.
È non smettere di allenare ciò che ci rende capaci di stare nel mondo reale, con tutta la sua complessità.
Fonti:
Stanford Human-Centered AI Institute – Exploring the Dangers of AI in Mental Health Care
ACM FAccT (ricerca su chatbot e standard terapeutici)
Psychiatric Times – Preliminary Report on Dangers of AI Chatbots
ArXiv – Vulnerability-Amplifying Interaction Loops
Canadian Mental Health Association – AI and Mental Health
Review clinica su digital psychiatry e chatbot
The Guardian – Therapists warn about AI chatbots and mental health risks
Time Magazine – AI Psychosis
Le Monde – Generative AI, psychiatry and risks