Go down

La critica del "pappagallo stocastico", introdotta da Emily Bender, Timnit Gebru e colleghi nel 2021, è diventata il quadro dominante per respingere le capacità cognitive dell'IA.


Sostiene che i modelli linguistici di grandi dimensioni (LLM) come GPT generano testi dal suono plausibile imitando i modelli statistici nei dati di addestramento, ma senza comprensione o significato. Da questo punto di vista, il significato sorge solo quando un essere umano interpreta l'output; l'IA stessa è semplicemente una mimica vuota.

N. Katherine Hayles, tuttavia, si oppone a questa prospettiva riduzionista suggerendo che l'IA può effettivamente generare testi intrinsecamente significativi all'interno del proprio quadro operativo. Propone che l'IA operi all'interno del proprio umwelt, un concetto preso in prestito dalla biosemiotica, che si riferisce al mondo egocentrico che un organismo percepisce e con cui interagisce, ma che rimane inaccessibile alla conoscenza umana.

Il processo inizia con l'intelligenza artificiale che scompone il testo in token, che sono le unità di base del linguaggio come parole o frasi. Ogni token viene quindi trasformato in un vettore, una rappresentazione matematica che ne cattura il significato contestuale in base a come appare nei dati di addestramento. Questi vettori sono situati all'interno di uno spazio ad alta dimensione in cui l'IA ha imparato a mappare le relazioni tra i diversi token. Il cuore del modello interpretativo dell'IA risiede nella sua capacità di riconoscere e sfruttare queste relazioni. Attraverso l'addestramento, l'intelligenza artificiale apprende modelli di co-occorrenza, in cui determinate parole appaiono spesso insieme in contesti specifici. Ad esempio, "mela" e "frutta" potrebbero spesso coesistere in testi nutrizionali o culinari, mentre "Apple" e "iPhone" appaiono insieme in testi relativi alla tecnologia.

Durante la generazione del testo, l'intelligenza artificiale utilizza meccanismi di attenzione per concentrarsi sulle parti più rilevanti dei dati di input. Questi meccanismi consentono all'IA di regolare dinamicamente la sua messa a fuoco, assicurandosi di considerare il contesto appropriato per ogni parola o frase. Una volta che l'intelligenza artificiale ha identificato il contesto pertinente, può generare un testo contestualmente appropriato e coerente. Questo processo di generazione prevede la previsione della parola o della sequenza di parole successiva in base all'input e alle relazioni apprese tra le parole. Il modello interno dell'IA utilizza i vettori ad alta dimensionalità per garantire che il testo generato mantenga le corrette relazioni semantiche e si adatti al contesto stabilito.

La differenza è netta: nella visione stocastica del pappagallo, il linguaggio dell'IA ha senso solo se letto dagli esseri umani. Nella visione umwelt, il linguaggio dell'IA è già significativo all'interno della sua stessa ecologia interpretativa. Questo cambiamento ha profonde implicazioni per il modo in cui comprendiamo il linguaggio, l'apprendimento e la creazione di senso nelle relazioni uomo-macchina. Piuttosto che trattare l'IA come una "scatola nera" da aprire o spiegare, Hayles ci invita a vederla come un umwelt, un sistema auto-organizzato, generatore di significato, la cui logica interna è strutturata da un'epistemologia aliena piuttosto che dall'inaccessibilità umana.


Original English text

The “stochastic parrot” critique, introduced by Emily Bender, Timnit Gebru, and colleagues in 2021, has become the dominant framework for dismissing AI’s cognitive capacities. It argues that large language models (LLMs) like GPT generate plausible-sounding text by mimicking statistical patterns in training data, but without understanding or meaning. On this view, meaning arises only when a human interprets the output; the AI itself is merely a hollow mimic.

N. Katherine Hayles, however, argues against this reductionist perspective by suggesting that AI can indeed generate intrinsically meaningful text within its own operational framework. She proposes that AI operates within its own umwelt, a concept borrowed from biosemiotics, which refers to the self-centered world that an organism perceives and interacts with, but which remains inaccessible to human knowledge.

The process begins with the AI breaking down the text into tokens, which are the basic units of language such as words or phrases. Each token is then transformed into a vector, a mathematical representation that captures its contextual meaning based on how it appears in the training data. These vectors are situated within a high-dimensional space where the AI has learned to map out the relationships between different tokens. The heart of the AI's interpretive model lies in its ability to recognize and leverage these relationships. Through training, the AI learns patterns of co-occurrence, where certain words frequently appear together in specific contexts. For instance, "apple" and "fruit" might often co-occur in nutritional or culinary texts, while "Apple" and "iPhone" appear together in technology-related texts.

When generating text, the AI uses attention mechanisms to focus on the most relevant parts of the input data. These mechanisms allow the AI to dynamically adjust its focus, ensuring that it considers the appropriate context for each word or phrase. Once the AI has identified the relevant context, it can generate text that is contextually appropriate and coherent. This generation process involves predicting the next word or sequence of words based on the input and the learned relationships between words. The AI's internal model uses the high-dimensional vectors to ensure that the generated text maintains the correct semantic relationships and fits within the established context.

The difference is stark: in the stochastic parrot view, AI language is only meaningful when read by humans. In the umwelt view, AI language is already meaningful within its own interpretive ecology. This shift has profound implications for how we understand language, learning, and sense-making in human–machine relations. Rather than treating AI as a “black box” to be opened or explained, Hayles invites us to see it as an umwelt—a self-organizing, meaning-generating system whose internal logic is structured by an alien epistemology rather than by human inaccessibility.


Pubblicato il 08 luglio 2025

Owen Matson, Ph.D.

Owen Matson, Ph.D. / Designing AI-Integrated EdTech Platforms at the Intersection of Teaching, Learning Science, and Systems Thinking

drmatsoned@gmail.com