Go down

Alla ricerca di punti di vista diversi e spunti per una riflessione non omologata, ho scoperto un interessante articolo scritto da tre filosofi dell’Università di Glasgow, Michael Townsen Hicks, James Humphries e Joe Slater.


"ChatGPT is Bullshit" è il titolo dell’articolo che suggerisce di smettere di chiamare allucinazioni le risposte delle intelligenze artificiali che sembrano coerenti ma in realtà si rivelano false o inventate di sana pianta, informazioni che non corrispondono alla realtà o sono elaborate a partire da dati non propriamente esatti, o errati. 

"indifference to the truth is extremely dangerous"

La terminologia con cui descrivere le allucinazioni IA, suggerito dai tre autori dell’articolo è “stronzate alla Frankfurter (Frankfurtian bullshit), caratterizzate da un'incosciente disattenzione per i fatti. 

La tesi sostenuta nell’articolo è che gli LLM non posseggono alcun concetto di verità, non se ne curano proprio. Perché dovrebbero farlo, visto che sono stati pensati e progettati per fornire risposte statisticamente plausibili più che per raccontare il mondo per quello che è. Quando si mente e si hanno allucinazioni al contrario si è in qualche modo preoccupati per la verità. 

"Is ChatGPT hard bullshitting, soft bullshitting, or neither? We will argue, first, that ChatGPT, and other LLMs, are clearly soft bullshitting."

Il riferimento a Harry Frankfurt (autore del libro "On Bullshit")serve agli autori per sostenere come molti risultati delle IA generative che usano i modelli LLM producono quantomeno stronzate soft, sempre pronte però a trasformarsi in hard quando oltre a fuorviare chi ha posto la domanda l’IA mostra di non perseguire alcuna forma di accuratezza, mostrando in questo un marcato disprezzo verso gli utenti che con fede e fiducia si sono rivolti all’oracolo LLM. 

"Is ChatGPT a hard bullshitter? A critic might object, it is simply inappropriate to think of programs like ChatGPT as hard bullshitters, because (i) they are not agents, or relatedly, (ii) they do not and cannot intend anything whatsoever. We think this is too fast. First, whether or not ChatGPT has agency, its creators and users do. And what they produce with it, we will argue, is bullshit. Second, we will argue that, regardless of whether it has agency, it does have a function; this function gives it characteristic goals, and possibly even intentions, which align with our definition of hard bullshit."

Gli autori dell’articolo evidenziano come ricorrere alla terminologia “sciocchezze” al posto di “allucinazioni” è anche un modo per contribuire a una sana comunicazione scientifica e tecnologica. Una comunicazione che può aiutare, chi oggi sposa acriticamente le risposte delle IA generative, a riflettere criticamente sulla loro interazioni con una tecnologia che non può essere considerata depositaria di Verità. 

Chi volesse leggere l’intero articolo lo trova in formato PDF su Springer.

Questo è l'abstract

Recently, there has been considerable interest in large language models: machine learning systems which produce humanlike text and dialogue. Applications of these systems have been plagued by persistent inaccuracies in their output; these are often called “AI hallucinations”. We argue that these falsehoods, and the overall activity of large language models, is better understood as bullshit in the sense explored by Frankfurt (On Bullshit, Princeton, 2005): the models are in an important way indifferent to the truth of their outputs. We distinguish two ways in which the models can be said to be bullshitters, and argue that they clearly meet at least one of these definitions. We further argue that describing AI misrepresentations as bullshit is both a more useful and more accurate way of predicting and discussing the behaviour of these systems.


Pubblicato il 05 giugno 2025

Carlo Mazzucchelli

Carlo Mazzucchelli / ⛵⛵ Leggo, scrivo, viaggio, dialogo e mi ritengo fortunato nel poterlo fare – Co-fondatore di STULTIFERANAVIS

c.mazzucchelli@libero.it http://www.stultiferanavis.it