Ragioniamo per assurdo: immaginiamo che l’intelligenza artificiale generativa e la sua diffusione siano davvero il frutto di una scommessa. Una scommessa sociale: fino a che punto il linguaggio di una macchina può plasmare gli esseri umani?
Il cinema e il teatro ci hanno abituati a questo plot: in Pigmalione, in Una poltrona per due, in Pretty Woman (e la lista potrebbe continuare), c’è sempre qualcuno che scommette sulla possibilità di trasformare qualcun altro, cambiandone linguaggio, comportamenti, immagine sociale. Ma che cosa rimane dopo la trasformazione?
In Shaw, ad esempio, la scommessa è tra Higgins e Pickering, che decidono di usare Eliza come cavia per dimostrare che il linguaggio può cambiare lo status sociale. Eliza, dopo aver interiorizzato quelle regole, scopre però di non appartenere più né al mondo popolare da cui proviene né a quello aristocratico a cui dovrebbe accedere. La sua ribellione finale è un atto di autonomia.
Se spostiamo il parallelo sull’IA, la scena cambia: pochi attori globali spingono milioni di utenti a usare strumenti che producono linguaggio (o immagini) artificialmente. Vengono presentati come soluzioni che promettono efficienza, risparmio di tempo, migliori performance. È proprio la loro semplicità d’uso a favorirne la diffusione, anche in spazi quotidiani come WhatsApp.
Ogni strumento che usiamo ci cambia. È sempre stato così.
Ogni strumento che usiamo ci cambia. È sempre stato così. Lo smartphone ha trasformato il nostro modo di leggere, di ricordare, di comunicare. I social hanno mutato il nostro rapporto con l’immagine e la visibilità. La domanda allora è: ne siamo consapevoli? E fino a che punto?
Le neuroscienze mostrano perché, nel caso dell’IA generativa, la questione potrebbe essere ancora più delicata. Lisa Feldman Barrett ricorda che il linguaggio non descrive semplicemente il mondo: lo costruisce, orienta la percezione, modella il pensiero. George Lakoff, con la linguistica cognitiva, sottolinea che le metafore nascono da schemi corporei: la nostra capacità di concettualizzare dipende dall’esperienza incarnata.
Imitare linguaggi non è certo una novità: lo slang dei giovani, i modelli che interiorizziamo da libri o conversazioni, sono tutti esempi di questa dinamica. Ma in quei casi la fonte rimane sempre umana, radicata in corpi ed esperienze vissute. Con l’intelligenza artificiale generativa la situazione è diversa: il suo linguaggio non nasce da mani che hanno toccato, da occhi che hanno visto, da corpi che hanno provato emozioni. È il prodotto di correlazioni statistiche calcolate su una porzione del sapere digitalizzato.
se il linguaggio può plasmare il pensiero, adottare quello artificiale equivarrebbe a sostituire un modo di pensare incarnato con uno schema che non ha nulla di umano.
Ma, allora, se il linguaggio può plasmare il pensiero, adottare quello artificiale equivarrebbe a sostituire un modo di pensare incarnato con uno schema che non ha nulla di umano.
Accettare come universale un linguaggio generato senza esperienza significherebbe, quindi, già entrare in una realtà virtuale sottile: non quella fatta di immagini sintetiche dei visori VR, ma di parole che simulano esperienza senza averne mai avuta alcuna.
Sta già accadendo? Ne siamo consapevoli?
Quella della scommessa, naturalmente, resta una provocazione.
Sarà il futuro a dirci se dal rischio di una crescente omologazione globale che già viviamo, frutto anche della connessione simultanea e dell’influenza reciproca tra esseri umani, passeremo a uno di una nuova forma di omologazione: quella dettata da un linguaggio artificiale che imita l’umano senza esserlo.
Chissà se un giorno, come Eliza, scopriremo di non appartenere più del tutto al mondo che ci ha generati, ma nemmeno a quello artificiale. Forse allora potremo rivendicare la nostra autonomia di ibridi consapevoli.