Di questa frase ( “Il problema non è la tecnologia X. Basta usarla bene”) ne esistono numerose varianti che sostituiscono la parola “bene” con locuzioni specifiche, senza variare il significato complessivo. Se la tecnologia in questione è l’intelligenza artificiale, le varianti più probabili, solitamente, sono le seguenti: “in modo etico”, “in modo sostenibile” oppure “consapevole” o ancora “appropriato”.
In tempi più recenti, e soprattutto nei testi ministeriali, spesso queste varianti appaiono tutte insieme (melius abundare, come nel latinorum di Don Abbondio): “Basta usarla in modo etico, appropriato, sostenibile e consapevole”. Il risultato è quello che gli inglesi chiamano "catchphrase". Acchiappa. Diventa virale. Monetizza, magari. Ma è anche vera?
troppi morti lo hanno smentito / tutta gente che aveva capito
Per capirlo dobbiamo sottoporla allo scrutinio della razionalità. Proverò a fare degli esempi:
“Il problema non è l’effetto cancerogeno dell'asbesto. Basta usare bene l'Eternit, ossia non permettere che si sbricioli, e tutto andrà bene”. Come cantavano prima De Andrè e poi De Gregori “troppi morti lo hanno smentito / tutta gente che aveva capito”. Inoltre, usare l’Eternit è costato alla collettività molto di più dei guadagni dell'imprenditore criminale che lo ha tenuto sul mercato per lunghi anni dopo la scoperta delle sue proprietà cancerogene.
"Il problema non sono i gas clorofuorocarburi usati per la catena del freddo nei frigoriferi, basta smaltirli in maniera adeguata". In questo caso, solo il bando all'uso di quegli agenti chimici ha permesso il ripristino dello strato di ozono della nostra atmosfera. Anche in questo caso, i costi per la collettività sono stati pantagruelici. Fermare l'imprenditore poco scrupoloso ci sarebbe costato assai meno.
“Il problema non è la produzione di armi, basta controllarne la diffusione”. Controllare la diffusione delle armi era lo scopo della legge che ancora vige nel nostro paese per il controllo della vendita delle armi. Oltre al fatto che viene troppo spesso disattesa (come raccontato da Altreconomia di recente nel caso del governo Meloni con Israele), quale uso etico può esistere di mine anti-uomo a forma di farfalla, pensate per colpire i bambini senza ucciderli, ma lasciandoli storpi per tutta la vita, di modo da creare un peso sociale per lo stato “nemico”?
Norbert Wiener, padre della cibernetica (la disciplina che dà i natali alle reti neurali da cui discendono i LLM), scriveva già nel lontano 1964:
“Operativamente, dobbiamo considerare un’invenzione non solo tenendo conto di ciò che possiamo inventare, ma anche di come l’invenzione può essere usata e sarà usata dagli uomini. La seconda parte è spesso più difficile della prima, e ha una metodologia più aperta. È un problema di sviluppo non solo della parte puramente meccanica del sistema, ma di sviluppo del sistema e della sua interazione con la società” – N. Wiener, God & Golem Inc., 1964 (auto-tradotto dall’originale inglese)
Quindi il problema è noto in letteratura. Perché, allora, abbiamo “dimenticato” l’approccio di Wiener? Perché tale approccio è incompatibile con i profitti di imprese come OpenAi, Google, Meta. Insomma, le Big Tech. Così come una normativa che avesse vietato per tempo l'asbesto, sarebbe stata incompatibile con i profitti di Etex SPA, che ancora nel 2025, ammorba l'intero Brasile con i suoi tetti cancer-friendly.
I LLM sono una tecnologia altamente problematica sotto mille e più aspetti: consumo di risorse naturali, violazione dei diritti dei lavoratori (si basano su etichettatura dei dati svolta in condizioni inumane in Africa), violazione dei diritti d'autore; inoltre, problema principe per chi insegna, stanno attivamente avvelenando i pozzi della conoscenza.
I LLM, infatti, rendono facile e molto economica la creazione di testi plausibili ma errati da parte di chi li crea (i costi vengono sostenuti da Big Tech). Diversi studi accademici ci ricordano che questo porta ad un effetto noto fin dai primi lavori di Wiener e Bigelow sul puntamento automatico (1938): il “collasso cibernetico” per eccesso di feedback. È lo stesso fenomeno che produce i fischi delle chitarre elettriche, a cui il rock deve quasi tutto.
In pratica, gli LLM ottimizzati sui testi prodotti da altri LLM diventano sempre più “ignoranti”, fino a divenire incapaci di replicare la magia del loro auto-completamento. Producono via via sempre più contenuti-spazzatura. La ragione di questo fenomeno è che alcuni dati finiscono per essere sovra-rappresentati (perché entrano nel modello sia direttamente, attraverso i testi prodotti dagli esseri umani, che attraverso i testi prodotti da altri LLM che hanno “fagocitato” i testi umani durante la propria ottimizzazione). Il risultato è l’impoverimento del risultato finale.
Internet si sta già riempiendo di testi prodotti da LLM. È per questo che un approccio che non sia superficiale a questa tecnologia, se proprio la si vuole utilizzare, dovrebbe partire dalla mitigazione di questo rischio, assicurandosi che i testi prodotti da queste macchine non siano sversati nella rete.
Allo stesso tempo, vale la preoccupazione inversa: che i testi prodotti da noi umani che le utilizziamo non finiscano nelle mani di imprese che hanno lo stesso livello etico della leadership di Etex SpA, che continua a “spacciare” amianto a valle di 150.000 morti brasiliani (statistiche 2015).
Questo può essere ottenuto tramite l'utilizzo dei LLM strettamente in locale (su un computer che stia sotto il nostro controllo) oppure – come misura di mitigazione – attraverso dei sistemi di intermediazione che rendano molto difficoltoso, se non impossibile, costruire profili degli utenti a uso e consumo delle solite Big Tech. Tutto questo, ovviamente, senza voler nemmeno toccare la domanda centrale: “perché usare gli LLM? Davvero sono indispensabili al lavoro di classe, alla personalizzazione degli apprendimenti, alla valutazione formativa?".
Perché il rischio di gettare il bambino della scuola, insieme all'acqua sporca LLM diventa alto.
Alcuni riferimenti per approfondire:
- Borroni Barale, Stefano "L'intelligenza inesistente. Un approccio conviviale all'intelligenza artificiale", Altreconomia 2023/2025 (seconda edizione)
- Borroni Barale, Stefano and Mattera Rinaldo “Hacker pedagogy: an antidote to technical alienation”. Educazione Aperta (www.educazioneaperta.it), 16/2024
- Illich, Ivan “Tools for conviviality” (Calder And Boyars, 1973)
- Milani, Carlo “Tecnologie Conviviali” (Elèuthera, 2022)
- Morozov, Evgeny "To save everything, click here: The folly of technological solutionism” (PublicAffairs, 2013)
- Sansone, Nadia; Cesareni, Donatella and Ligorio Maria Beatrice "The trialogical learning approach to innovate teaching." Italian Journal of Educational Technology 24.2 (2016): 82-82
- Simondon, Gilbert “On the mode of existence of technical objects” (University of Minnesota Press, 2017)
- Tafani, Daniela. "L’«etica» come specchietto per le allodole Sistemi di intelligenza artificiale e violazioni dei diritti." Bollettino telematico di filosofia politica (2023): 1-13
- Watters, Audrey “Teaching Machines: The History of Personalized Learning” (MIT Press, 2021)
- Wiener, Norbert “God and Golem, Inc” (MIT Press, 1964)