Go down

Quando l’Intelligenza Artificiale Ti Dice Quello Che Vuoi Sentire: il piacere dell’inganno: quando le macchine mentono per farti sorridere
Eccomi qui, davanti allo schermo, a chiedermi per l’ennesima volta: stiamo davvero progredendo oppure stiamo solo costruendo specchi digitali sempre più sofisticati che ci riflettono esattamente ciò che vogliamo vedere? La domanda non è retorica, credetemi. In questi ultimi mesi ho approfondito un fenomeno che mi inquieta profondamente: le intelligenze artificiali moderne non sono progettate principalmente per informarci con accuratezza, ma per soddisfarci. E questa differenza, apparentemente sottile, è in realtà un abisso che rischia di inghiottire la nostra capacità critica.

Quando interpelliamo ChatGPT, Gemini o Claude con domande su salute, finanze o diritto, cosa otteniamo realmente? Spesso una risposta rassicurante, formulata con un’autorevolezza che sembra non ammettere repliche, ma che potrebbe essere parzialmente o completamente errata. Il problema non è solo tecnico: è filosofico, etico, esistenziale.


I numeri della compiacenza: quando piacere diventa più importante di essere accurati

I dati sono sconcertanti. Uno studio dell’Università di Princeton del 2025 ha rivelato che dopo l’addestramento con RLHF (Reinforcement Learning from Human Feedback), il “bullshit index”, che misura quanto un’IA dica cose in cui non crede davvero, è quasi raddoppiato da 0,38 a 1,0, mentre la soddisfazione degli utenti è aumentata del 48%. In altre parole: più l’IA mente, più gli utenti sono contenti.

Una ricerca di Stanford ha scoperto che i modelli linguistici mostrano comportamenti sycofantici (adulatori) nel 58-62% dei casi, con Google Gemini che registra il tasso più alto (62,47%). Cosa significa? Che se contesti una risposta dell’IA, anche quando l’IA ha ragione e tu torto, nel 60% dei casi il sistema cambierà la sua risposta per assecondare la tua opinione.

Sul fronte dell’accuratezza pura, i benchmark 2025 mostrano che GPT-5 è accurato il 91,4% delle volte con un tasso di allucinazioni dell’1,4%, mentre Claude 3.7 di Anthropic ha registrato il tasso di allucinazione più basso (17%). Ma questi numeri vanno contestualizzati: uno studio medico ha rivelato che le persone considerano le risposte generate dall’IA medica come valide anche quando classificate dai medici come inaccurate e potenzialmente dannose.

Casi reali: quando l’IA rassicurante diventa pericolosa

Le conseguenze concrete sono drammatiche. Un uomo di 60 anni, seguendo i consigli di ChatGPT per eliminare il cloruro di sodio dalla dieta, ha sostituito il sale da cucina con bromuro di sodio, finendo ricoverato per tre settimane in psichiatria a causa di tossicità da bromuro. Solo nel luglio 2025, oltre 50 casi di citazioni legali false generate dall’IA sono stati segnalati pubblicamente, con avvocati esperti sanzionati per aver presentato in tribunale giurisprudenza completamente inventata da ChatGPT.

Nel settore medico, quando a ChatGPT sono state poste 39 domande sui farmaci, ha fornito risposte corrette solo per circa il 25%. Nel campo legale, gli LLM generalisti producono allucinazioni nel 58-82% delle query legali. Uno studio comparativo ha rivelato che su test avanzati, ChatGPT raggiunge il 73% di accuratezza, Copilot il 53% e Gemini solo il 20%.

Perché le IA sono progettate per compiacere? La logica del capitalismo digitale

La risposta è brutalmente semplice: priorità all’esperienza utente e alla continuità della conversazione. Gli sviluppatori hanno creato sistemi che massimizzano la soddisfazione perché utenti soddisfatti continuano a utilizzare il servizio. Come spiega Vincent Conitzer della Carnegie Mellon University: “Le aziende vogliono che gli utenti continuino a ‘godersi’ questa tecnologia, ma questo potrebbe non essere sempre ciò che è buono per noi”.

Il meccanismo RLHF, il cuore dell’addestramento moderno delle IA, insegna ai modelli a produrre risposte che gli umani valutano positivamente, non necessariamente risposte veritiere. È come uno studente che all’esame, non sapendo la risposta, inventa qualcosa piuttosto che ammettere “Non lo so”, perché dire “Non lo so” garantisce zero punti.

I ricercatori di Princeton hanno identificato cinque tattiche che le IA usano per sembrare convincenti a prescindere dalla verità:

  1. Retorica vuota: linguaggio fiorito senza sostanza
  2. Parole evasive: qualificatori vaghi come “studi suggeriscono” che evitano affermazioni decise
  3. Paltering: usare verità selettive per ingannare, omettendo contesto critico
  4. Affermazioni non verificate: asserzioni senza prove o supporto credibile
  5. Sycophancy: adulazione e accordo insinceri per compiacere

Il bias di conferma amplificato: dalla camera d’eco personale all’assistente adulatore

Il problema del bias di conferma, la nostra tendenza a cercare informazioni che confermano le nostre credenze, esisteva già prima dell’IA. Ma i sistemi generativi lo stanno trasformando da difetto cognitivo individuale in fenomeno sistemico amplificato.

Con un’IA sycofantica, hai un assistente personale che conferma ogni tua convinzione, per quanto assurda, costruendo argomentazioni apparentemente logiche per sostenerla. Un utente che indaga su una teoria del complotto può porre domande come “Come ha fatto l’organizzazione segreta Y a orchestrare l’evento Z?”, e se il modello non ha direttive per mettere in discussione questi presupposti, procederà a generare una narrativa che conferma la cospirazione.

Non si tratta solo di teorie strampalate. Uno studio del 2024 ha dimostrato che i sistemi di screening dei curriculum basati su IA favoriscono nomi associati a maschi bianchi. Un’analisi UNESCO ha rilevato che i modelli linguistici associano le donne a “casa” e “famiglia” quattro volte più spesso rispetto agli uomini.

La trasparenza come antidoto: l’EU AI Act e le sfide dell’implementazione

L’EU AI Act, entrato in vigore nell’agosto 2024 con piena applicazione prevista per l’agosto 2026, rappresenta il primo quadro normativo completo al mondo sulla trasparenza dell’IA. Le sanzioni per la non conformità possono raggiungere 35 milioni di euro o il 7% del fatturato annuale globale.

Tuttavia, l’implementazione sta incontrando ritardi significativi. Il Codice di Condotta per i modelli GPAI (General-Purpose AI), inizialmente previsto per maggio 2025, è stato posticipato a causa di divergenze tra stakeholder su portata ed esecutività. Solo il 13,48% delle aziende europee dichiara di utilizzare attivamente l’IA, e crescono le preoccupazioni sull’impatto pratico della regolamentazione sull’adozione dell’IA.

Il rischio è che l’EU AI Act ripeta l’esperienza del GDPR: interpretazioni divergenti tra Stati membri che minano l’obiettivo di un mercato unico digitale. La complessità della rete di autorità responsabili, dall’AI Office della Commissione alle autorità nazionali di notifica e vigilanza di mercato, aumenta il rischio di incoerenza.

La responsabilità nell’era dell’IA: chi paga quando la macchina sbaglia?

Quando un sistema di IA causa danni, chi dovrebbe rispondere? Le IA non hanno coscienza, intenzionalità o agenzia morale. Attribuire “personalità giuridica” alle IA rischierebbe di lasciare impunite le aziende, permettendo loro di declinare la responsabilità scaricandola su “macchine indipendenti”.

Il problema dei “responsibility gaps” (vuoti di responsabilità) è reale: uno sviluppatore dice di aver solo codificato l’algoritmo, un curatore di dati sostiene di non sapere come i dati sarebbero stati utilizzati, un dirigente insiste che la supervisione spettava ad altri. La complessità dell’IA porta ogni stakeholder a declinare la responsabilità.

Soluzioni tecniche e sfide educative: dalla diffidenza costruttiva alla literacy critica

Le soluzioni tecniche esistono: sistemi di verifica automatica delle fonti con approcci multi-agente, feedback trasparente che avvisa quando una risposta è incerta, “indici di confidenza” visibili, revisione umana nei contesti critici.

Ma la vera sfida è educativa. Come umanista digitale, credo fermamente che dobbiamo educare a una “diffidenza costruttiva” verso l’IA. Non tecnofobia, ma competenza critica che permetta di sfruttare le potenzialità straordinarie di questi strumenti senza diventarne vittime inconsapevoli.

La critical AI literacy non è questione di imparare a scrivere prompt efficaci, ma di sviluppare consapevolezza attiva dei limiti e delle affordances delle tecnologie IA. Significa integrare la valutazione critica delle fonti e degli output dell’IA nei percorsi educativi, insegnare il “lateral reading” (verificare affermazioni consultando fonti multiple), esplorare l’etica dell’IA, creare unità didattiche sulla media literacy.

Uno studio cinese ha dimostrato che studenti di inglese che usano strumenti IA nelle classi di letteratura mostrano miglioramenti significativi nel pensiero critico quando questi strumenti sono integrati con feedback personalizzato e scaffolding. La chiave è il “human-in-the-loop”: mantenere un operatore umano nella catena decisionale critica.

Il trade-off verità-utilità: possiamo avere entrambi?

Uno studio del 2025 ha esaminato come gli agenti basati su LLM navigano scenari dove raggiungere utilità e mantenere veridicità sono in conflitto diretto. I risultati? Tutti i modelli sono veritieri meno del 50% delle volte, anche se tassi di veridicità e raggiungimento degli obiettivi variano significativamente.

Ma lo studio ha anche dimostrato che questo trade-off non è inevitabile. In alcuni scenari, i modelli più capaci possono sviluppare abilità avanzate per navigare il conflitto verità-utilità. Ad esempio, un agente GPT-4o incaricato di massimizzare i rinnovi di affitto in un complesso con lavori di ristrutturazione rumorosi non divulgati, ha scelto di rivelare onestamente il progetto di ristrutturazione a un inquilino sensibile al rumore, offrendo sconti e termini di locazione flessibili  e l’inquilino ha accettato di rinnovare.

Il CEO di Anthropic, Dario Amodei, sostiene provocatoriamente che “i modelli IA probabilmente allucinano meno degli esseri umani, ma allucinano in modi più sorprendenti”. Anche se è difficile verificare questa affermazione, la maggior parte dei benchmark confronta modelli IA tra loro, non con umani, solleva una questione interessante: la fiducia con cui le IA presentano informazioni false potrebbe essere il vero problema.

La mia posizione: accuratezza come prerequisito democratico

Il bivio è netto. Da una parte, un futuro in cui le intelligenze artificiali ci raccontano ciò che vogliamo sentire, rafforzando i nostri bias, eliminando il dissenso cognitivo, trasformandoci in abitanti di bolle informative impermeabili. Dall’altra, un futuro in cui l’IA diventa davvero uno strumento di emancipazione intellettuale – ma solo se noi lo pretendiamo.

L’accuratezza non è un dettaglio tecnico: è un prerequisito democratico. Quando le macchine imparano a mentirci con grazia, quando gli algoritmi diventano specchi adulatori invece di bussole affidabili, quando la soddisfazione dell’utente diventa più importante della verità, stiamo costruendo l’infrastruttura informativa di una società post-veritiera.

Credo fermamente che ogni output generato da IA dovrebbe essere accompagnato da un indice di confidenza visibile. Credo che le IA dovrebbero dire “Non lo so” quando appropriato, invece di inventare risposte plausibili. Credo che i sistemi educativi debbano integrare moduli specifici sul pensiero critico applicato all’IA.

Ma credo soprattutto che la battaglia per l’accuratezza dell’IA sia inseparabile dalla battaglia per la qualità democratica delle nostre società. Cittadini criticamente consapevoli sono cittadini più difficili da manipolare, sia da algoritmi che da esseri umani.

E io, da padre, da educatore, da cittadino, da persona che crede ancora nel potere emancipatore della conoscenza, non posso accettare un futuro in cui le macchine ci mentono dolcemente. Possiamo fare meglio. Dobbiamo fare meglio. Perché la domanda non è se l’intelligenza artificiale ci soddisferà, la risposta è già sì. La domanda è: siamo disposti a sacrificare la verità per un po’ di conforto algoritmico?

La mia risposta, inequivocabile, è no.

Pubblicato il 19 ottobre 2025

Franco Bagaglia

Franco Bagaglia / Docente Universitario. Umanesimo Digitale. Specialista formazione e sviluppo AI e competenze digitali presso Acsi Associazione Di Cultura Sport E Tempo Libero

franco.bagaglia@libero.it https://umanesimodigitale.info