L'impatto dell'AI Search
Abbiamo già visto come l’ecosistema dell’informazione è a rischio di tenuta per la spinta impressa dall’AI-powered Search a concentrare sulle fonti più autorevoli (e dotate di forza contrattuale), a scapito dei piccoli produttori e distributori di contenuti. Leggi qui la prima parte, se ancora non l'hai fatto.
A voler guardare con lucidità e una certa sana diffidenza, l’adozione sempre più diffusa dei motori di ricerca basati su intelligenza artificiale rischia di minare alla base l’equilibrio economico su cui si basa il web, e in definitiva l’economia digitale come l’abbiamo conosciuta fin qui.
In particolare, l’integrazione di risposte sintetiche nei risultati di ricerca — come quelle già sperimentate da Google — sta riducendo in modo sensibile il traffico verso i siti di notizie e verso le fonti originali, erodendo la principale linfa economica del giornalismo online: la visibilità. Uno studio di “Search Engine Land” prevede un calo del traffico organico tra il 18% e il 64% in tendenza.
Secondo il New York Post, le conseguenze per gli editori potrebbero essere addirittura catastrofiche, specialmente per chi fonda la propria sostenibilità su contenuti di qualità, indipendenti o di nicchia. Se gli utenti smettono di visitare i siti originali, l’infrastruttura della rete — fatta di milioni di piccole e medie realtà editoriali — viene compromessa.
In più, questo fenomeno non riguarda solo l’informazione, ma tocca l’intero ecosistema di internet. Per esempio, l’affidamento a Deep Research può indebolire la qualità del lavoro basato su ricerca documentale, mentre gli studiosi rischiano di citare sintesi parziali o errate senza accorgersene. È quello che The Next Web definisce un’erosione sistemica dell’economia digitale, con effetti a cascata su pluralismo, innovazione e libertà d’informazione.
Non meno preoccupanti sono gli accordi riservati tra grandi aziende AI e grandi editori: secondo alcune analisi, questi patti esclusivi non solo tagliano fuori i piccoli creatori, ma favoriscono contenuti standardizzati e a basso costo, consolidando posizioni di monopolio e riducendo ulteriormente la qualità complessiva dell’informazione accessibile online.
Non mancano le valutazioni più ottimistiche, o perlomeno attendiste, che si basano sulle funzionalità davvero innovative e utili. Resta indubbio che stiamo assistendo ad una trasformazione epocale del ruolo dei motori di ricerca, che da strumenti di accesso “neutrale” alla conoscenza, rischiano di diventare filtri opachi e selettivi. Da più parti si avverte la necessità di un intervento regolatore, ma quale e da parte di chi, ancora non è chiaro.
Apple, Perplexity e l’engagement sintetico
A riprova del pericolo di concentrazione del mercato dell’informazione in mano a pochi monopolisti, è di queste ore l’ufficializzazione dell’acquisizione di Perplexity da parte di Apple. Ricordiamo che Perplexity è comparsa sulla scena fin dal dicembre 2022 come motore di ricerca conversazionale basato su AI, distinguendosi per l’uso della retrieval-augmented generation (RAG), la chiarezza nell’indicazione delle fonti e la capacità di sintetizzare contenuti complessi in risposte rapide e leggibili.
Con l’acquisizione, Apple potrebbe estendere il modello di Perplexity basato sull’“engagement sintetico”, cioè sulla permanenza dell’utente nella risposta generata, spostando ulteriormente il valore dalla fonte originale alla piattaforma che media l’informazione. Ciò cambierebbe i criteri con cui si valuta l’autorevolezza, privilegiando l’esperienza utente fluida rispetto alla tracciabilità dei contenuti.
Questo altera radicalmente le metriche tradizionali di coinvolgimento (come il CTR o il bounce rate), rendendo opaca la relazione tra contenuto, autore e lettore. Un ecosistema dove il contenuto originale è ridotto a materia prima invisibile, digerita e neutralizzata, al servizio di una piattaforma che si prende tutto: attenzione, fiducia e valore economico.
Possibili contromisure
Posto che non basta impugnare il copyright per arginare l’uso massiccio dei contenuti da parte delle intelligenze artificiali (è in corso una causa importante di News Corp contro Perplexity), appare evidente la necessità di altri strumenti per difendere l’accesso a dati ed altre informazioni, per ottenere almeno un’equa compensazione, e per chiarire le responsabilità in caso di errori e disinformazione.
Regolamentazione e trasparenza algoritmica
L’Unione Europea ha mosso un primo passo: ha creato l’European Centre for Algorithmic Transparency (ECAT), incaricato di vigilare sulle piattaforme digitali e sulle logiche opache che regolano l’uso degli algoritmi. ECAT fornisce supporto scientifico all’attuazione del Digital Services Act, mirando a contenere i rischi sistemici dei sistemi automatici.
Ma la sola vigilanza non basta. Dal Berkman Klein Center di Harvard arriva un invito chiaro all’industria, di non aspettare la regolamentazione, e di anticiparla definendo nuovi modelli di remunerazione dei contenuti, capaci di bilanciare innovazione e sostenibilità. Secondo Benjamin Brooks, infatti, se le big tech non intervengono per creare sistemi di value sharing, lo faranno i governi, male e in ritardo, col risultato di interventi rozzi, favori ai grandi editori e nuove barriere all’ingresso. Con buona pace della libertà di espressione e della circolazione delle idee.
La simbiosi possibile tra piattaforme AI e editori
Meglio allora muoversi subito. Questo vale innanzitutto per l’industria dell’AI, considerato che la condivisione del valore generato a partire dai contenuti, non è solo una decisione etica, ma anche conveniente per puro calcolo strategico.
Le piattaforme AI, infatti, sono molto sensibili alla qualità dei dati e delle informazioni su cui basano le proprie risposte, perché influenzano direttamente il grado di soddisfazione dei loro utenti. E’ quindi loro interesse che gli editori e i produttori di contenuti facciano bene il proprio mestiere, per potersi avvantaggiare di documenti precisi e tracciabili.
Brooks propone una trasformazione strutturale del rapporto tra creatori di contenuti e motori di ricerca AI, che si fonda su un sistema di redistribuzione automatizzata del valore generato dalle query. Tenendo conto che i modelli generativi, anche se non portano clic diretti, estraggono valore (engagement, soddisfazione dell’utente, tempo di permanenza), lo misurano e attribuiscono alle fonti originarie.
Secondo quanto scrive Benjamin Brooks, le piattaforme hanno già gli strumenti tecnici, cioè quelli usati da Spotify, TikTok, YouTube e X. In quei casi la visibilità e l’uso di un contenuto generano micro-compensi a beneficio di molti piccoli contributori (blog, podcast, video, articoli), non solo i grandi media.
Inoltre, la compensazione economica potrebbe scattare anche senza clic. Tecnicamente, anche se l’utente non visita direttamente la fonte, il sistema può sapere quali fonti sono state utilizzate per una risposta AI, e quanto engagement ha generato la risposta. Quindi, la retribuzione può avvenire in base all’uso effettivo, e non solo ai clic, aprendo la strada a nuove metriche di compensazione.
Le possibili iniziative degli editori
Gli editori e produttori di contenuti possono assumere iniziative anche se in posizione evidentemente meno favorevole. Innanzitutto possono cercare di rinegoziare le licenze, inserendo clausole su attribuzione e compensi (vedi il caso Reddit–Google), e spingere intanto le piattaforme verso quegli accordi di revenue sharing più tradizionali, basati su citazioni e utilizzi (vedi il caso News Corp contro Perplexity già citato).
Ricordiamo che Perplexity è un motore di ricerca basato su intelligenza artificiale, progettato per fornire risposte sintetiche e dirette, invece di elenchi di link come nei motori tradizionali. Usa tecniche di retrieval-augmented generation (RAG) per recuperare contenuti dal web, e indica le fonti. Purtroppo però, l’utente legge spesso il riassunto AI e non clicca più sui link originali.
A ottobre 2024, News Corp ha citato in giudizio Perplexity AI con l’accusa di utilizzo non autorizzato dei propri contenuti editoriali e di concorrenza sleale, perché sfrutta le notizie per attrarre lettori senza generare traffico verso gli editori. Infatti, a differenza del training dei modelli, qui i contenuti sono riusati direttamente, sono spesso riconoscibili nella risposta, e rendono superfluo l’accesso al contenuto originale, causando un danno economico più diretto e misurabile. L’intero settore attende di sapere come va a finire.
Contemporaneamente, gli editori potrebbero anche mostrarsi più proattivi, iniziando a ottimizzare i contenuti per l’AI, esattamente come in precedenza hanno fatto per la SEO. Anche se può sembrare paradossale favorire l’acquisizione dei propri contenuti da parte delle piattaforme AI quando ancora non esiste garanzia che vengano remunerati, può in realtà portare vantaggi di medio termine:
- posizionarsi come fonte autorevole e rendersi già “visibili all’AI”, anticipando la trasformazione, per avere maggiore potere negoziale quando si inizierà a discutere di modelli di revenue sharing.
- rendere i propri contenuti riconoscibili, in modo che portino almeno visibilità, mentre vengono acquisiti ugualmente senza permesso. Nel nuovo ecosistema la visibilità è infatti ancora un valore, e può ancora portare benefici indiretti: notorietà, backlink da utenti secondari, inserimenti in altri prodotti (es. answer box, feed news, tool conversazionali).
- rendere i propri contenuti più affidabili e meno soggetti a distorsioni o errori di elaborazione. Questo può significare investire in contenuti certificati, con meccanismi rigorosi di fact checking. Questo aiuta a proteggere la reputazione del proprio brand dagli effetti di una elaborazione prona a errori e distorsioni da parte dell’AI, come abbiamo già visto.
Educare il pubblico
Non possiamo tralasciare il ruolo degli utenti finali, che oltre ad essere vittime di un ecosistema dell’informazione che va deteriorandosi, possono diventare un soggetto attivo (siamo pur sempre consumatori che votano col proprio acquisto), o quanto meno reattivo.
E’ necessario, però, che si diffonda una solida consapevolezza dei limiti della ricerca basata su AI, dei rischi di disinformazione, delle distorsioni introdotte da risposte sintetiche e non attribuite. Una posizione vincolante e autorevole, da non confondersi con manifestazioni di totale rifiuto, in parte indifendibili e comunque non costruttive.
Prima ancora di insegnare a interrogare l’AI, andrebbe insegnato a dubitare. A chiedersi: da dove viene questa informazione? chi l’ha generata? perché mi viene mostrata proprio questa risposta e non un’altra? Senza una cultura del dubbio informato, l’Intelligenza Artificiale rischia di diventare una macchina della credulità.
Un utente che ha “AI-literacy” sufficiente per valutare il servizio offerto non è solo un cittadino migliore, ma anche un argine attivo proprio contro l’opacità algoritmica e l’automatizzazione acritica del sapere. D’altra parte questa competenza non può che essere il risultato di un impegno non indifferente, che non può essere scaricato sulle spalle dell’utente stesso.
La responsabilità è diffusa, e per questo rischia di essere disattesa. Sono chiamati in causa:
- Le istituzioni pubbliche dovrebbero integrare nei programmi scolastici e universitari moduli sull’uso critico dell’intelligenza artificiale, sulla valutazione delle fonti e sulla consapevolezza digitale. Servono anche campagne nazionali di educazione mediatica, non affidate a testimonial improvvisati ma a figure di riconosciuta competenza.
- I media tradizionali devono tornare a fare servizio pubblico: non solo denunciare gli abusi dell’AI, ma spiegare con continuità e chiarezza come funziona, dove sbaglia, e perché certe risposte non vanno prese alla lettera.
- Le piattaforme digitali — dai motori di ricerca ai social — devono progettare interfacce che informino e non nascondano, inserendo indicatori di provenienza, link espliciti alle fonti e meccanismi di verifica facilmente accessibili.
- Le organizzazioni civiche — università, biblioteche, fondazioni, ONG — possono svolgere un ruolo chiave come luoghi di apprendimento informale, promuovendo laboratori, corsi brevi, toolkit e materiali open source per formare cittadini consapevoli.
Conclusione
I vantaggi pratici dell’AI-powered Search sono evidenti, e lo dimostra la rapida diffusione di questa nuova opportunità offerta dalla tecnologia: riduzione drastica del tempo di ricerca, capacità di sintesi su temi complessi, supporto conversazionale che avvicina il motore di ricerca a un consulente personale.
Anche in questo caso, la prospettiva è affascinante: conoscere di più e meglio, con sempre meno fatica. Specie per noi, discendenti di Prometeo e animati da quella tensione continua verso la ricerca del sapere e la comprensione del mondo in cui viviamo, tanto da rappresentare un atto di emancipazione e di sfida all’autorità divina.
Ma quando ci affidiamo a un sistema generativo per ottenere risposte, stiamo ancora conoscendo qualcosa o stiamo solo assorbendo un’informazione plausibile? Una risposta fluente e convincente, priva però di fonti e ragionamenti espliciti, e pericolosamente inaffidabile, non solo ci preclude la conoscenza del mondo che intendiamo abitare e trasformare, ma ci impedisce, di conseguenza, di abitarlo pienamente e trasformarlo in base ai nostri bisogni e desideri. E ci rende soggetti passivi e manipolabili.
Se coerenza sintattica e verosimiglianza sostituiscono il concetto stesso di verità, si delinea una “epistemologia opaca”: si passa da una conoscenza critica, verificabile e situata a una forma passiva e indimostrata, espressa con atti di fede più che con un processo razionale. Una fiducia nella macchina, con la quale non c’è scambio di conoscenza e tanto meno di emozioni, che finisce per sostituire l’esercizio stesso del conoscere.
Per noi utenti comuni, il rischio più immediato è quello di smettere di scegliere cosa approfondire, lasciando che sia l’algoritmo a decidere cosa vale la pena sapere. Un rischio che è proprio oggetto di attenzione nei miei articoli, e del lavoro sul quale sono particolarmente impegnato, con HIBAI.
Dunque, educare alla complessità non è un lusso, ma una strategia di sopravvivenza cognitiva, e in definitiva di autodifesa come esseri umani. Non possiamo permetterci di commettere gli stessi errori del passato. Con l’avvento dei social media ci eravamo illusi che l’accesso libero all’informazione fosse, di per sé, emancipazione, e che bastasse “più contenuto” per avere “più verità”.
Dovremmo avere imparato quanto sia concreto il rischio di finire in un’infosfera disordinata e polarizzata, come quella che sperimentiamo ogni giorno, in cui la fiducia è diventata una merce rara e la disinformazione una strategia di mercato e di potere. Ora, con l’AI generativa, siamo a un nuovo bivio, e questa volta non possiamo dire di non sapere.
Fonti
- The Black Box Society: The Secret Algorithms That Control Money and Information, Frank Pasquale, (2015) - Harvard University Press
- Algorithms of Oppression: How Search Engines Reinforce Racism, Safiya Umoja Noble, (2018) - NYU Press
- Supercharging Search with generative AI, Elisabetta Reid, (5/2023) - Google Blog
- Prompting the News: Evaluating News Understanding in Large Language Models, Vishvak Murahari et al., (2/2024) - arXiv
- SearchGPT Prototype, Redazione, (3/2024) - OpenAI
- AI search could break the web, Benjamin Brooks, (31/10/2024) - MIT Technology Review
- The chatbot optimisation game: can we trust AI web searches?, Callum Bains, (3/11/2024) - The Guardian
- Deep Research Overview, Redazione, (12/2024) - Gemini | Google
- BBC research shows issues with answers from artificial intelligence assistants, Redazione, (2025) - BBC
- The danger of relying on OpenAI’s deep research, Redazione, (13/2/2025) - The Economist
- AI Search Has A Citation Problem, Klaudia Jaźwińska and Aisvarya Chandrasekar, (6/3/2025) - Columbia Journalism Review
- AI Search Has a News Citation Problem, Michelle Manafy, Rande Price, (24/3/2025) - DigitalContextNext
#giornalismo #journalism #GenerativeJournalism #IntelligenzaArtificiale #ArtificialIntelligence #IntelligentAgents #Informazione #Information #fiducia #trust #potere #power #media #bias #storytelling #storydiscovery #opinionepubblica #publicopinion #LLM #etica #businessmodel