Si sta diffondendo il timore – se non una vera e propria preoccupazione – che il rapido progredire dell’intelligenza artificiale, in particolare quella generativa, tenda a rafforzare la tentazione, comprensibilmente umana, di una delega cognitiva verso la macchina.
Una delega che, affidando sempre più spesso alle macchine il compito di rispondere, spiegare e suggerire, comporti nel lungo periodo, inevitabilmente e invisibilmente, l’atrofizzazione della nostra capacità di pensare.
Il timore è comprensibile, e in parte fondato, ma probabilmente non coglie il nocciolo della questione, principalmente perché si fonda sull’idea che la delega sia qualcosa di nuovo, una deviazione recente nel nostro modo di conoscere il mondo, quando, in realtà, è esattamente il contrario. La delega, infatti, è una delle condizioni fondamentali della conoscenza umana e, al tempo stesso, un meccanismo biologico assolutamente comprensibile, se consideriamo che il nostro cervello è l’organo del nostro corpo che consuma la maggiore quantità di energia.
Non bisogna infatti dimenticare che ci fidiamo continuamente di ciò che non possiamo verificare, ad esempio quando accettiamo una diagnosi senza essere in grado di replicarla, quando attraversiamo un ponte senza controllarne i calcoli strutturali o leggiamo una notizia senza risalire a ogni fonte.
Se dovessimo validare ogni informazione, ogni affermazione, ogni passaggio logico, semplicemente non sapremmo più nulla. Saremmo, in definitiva, cognitivamente immobili. In questo senso, l’intelligenza artificiale non introduce la delega, ma la rende più visibile, più frequente, più accessibile e, forse proprio per questo, più inquietante.
Per la prima volta, infatti, non stiamo delegando a un altro essere umano. Non a qualcuno che immaginiamo dotato di esperienza, intenzionalità, responsabilità, ma a qualcosa. A un sistema che non comprende nel modo in cui intendiamo noi la comprensione e che, tuttavia, produce risposte che competono con le nostre capacità cognitive.
Se la tecnologia, fino a oggi, ha soprattutto esteso le nostre capacità fisiche – possiamo andare più veloci, più lontano e più in alto – qui accade qualcosa di diverso. Non è più solo un’estensione, ma un’alterazione del perimetro stesso del nostro pensare, ed è forse in questo scarto, più che nella delega in sé, che si annida parte della nostra inquietudine.
Esiste però un’arma per combattere – ammesso che lo si voglia fare – il rischio di un eccesso di delega, un’arma che non elimina questo affidare ad altri ciò che prima facevamo noi, ma che se non altro consente di mantenerne il controllo. Un’arma che si realizza nello spirito critico, ovvero quell’atto profondamente umano che suggerisce di non fidarsi ciecamente e di verificare e mettere in discussione.
Lo spirito critico è una capacità sana, quasi istintiva, ma anche qui, se ci fermiamo un momento a pensare, emerge, forse in modo meno evidente, una nuova tensione, perché lo spirito critico, ahimé, funziona solo quando abbiamo gli strumenti per esercitarlo.
Possiamo infatti valutare un ragionamento se ne comprendiamo i presupposti, e possiamo riconoscere un errore se siamo in grado di individuarlo. Ma quando chiediamo qualcosa a un sistema di intelligenza artificiale, spesso lo facciamo proprio perché non lo sappiamo, perché non abbiamo quelle competenze.
Eppure, non è sempre così, perché a volte chiediamo anche ciò che già sappiamo. Non per apprendere, ma per confrontare o anche per verificare che la risposta coincida con la nostra. È un gesto che può sembrare vanesio, quasi una forma di autoaffermazione, come se cercassimo una conferma più che una scoperta.
Ma, più semplicemente, è forse un comportamento inevitabilmente umano. È il modo in cui misuriamo noi stessi, non solo nel dubbio, ma anche nel riconoscimento e, in questo caso, l’intelligenza artificiale diventa uno specchio più che una guida.
Siamo, insomma, in presenza di una frattura tra ciò che vorremmo applicare e la reale possibilità di farlo, perché, se da un lato abbiamo bisogno della risposta, dall’altro non siamo davvero in grado di verificarla. Possiamo probabilmente intuirne la plausibilità, coglierne la coerenza e magari confrontarla con altre fonti, ma la verifica piena, quella che immaginiamo quando parliamo di spirito critico, ci sfugge.
È una situazione familiare, in realtà, anche se raramente la riconosciamo come tale. È la stessa che viviamo ogni volta che ci affidiamo a qualcuno che sa più di noi, con la differenza che, con l’intelligenza artificiale, questa dinamica diventa improvvisamente più evidente, perché manca ancora quel contesto culturale e relazionale che, altrove, rende la fiducia quasi invisibile.
Oggi possiamo considerare l’uso dell’intelligenza artificiale simile a una navigazione in mare aperto, durante la quale non vediamo la costa e non abbiamo un controllo diretto su tutto ciò che accade, potendoci muovere solo grazie a strumenti che ci orientano, che se da un lato sono sicuramente potenti e sofisticati, dall’altro non sono certamente infallibili.
Il bravo marinaio sa che durante la navigazione non può, ad esempio, misurare ogni corrente, né prevedere ogni variazione del vento, eppure, continua a muoversi e non perché abbia in ogni momento il pieno controllo di ogni cosa – cosa impossibile – ma perché ha imparato a combinare ciò che gli strumenti suggeriscono, ciò che la sua esperienza gli dice, e una personale forma di fiducia operativa che gli consente di procedere anche in assenza di conferme assolute.
Questa esigenza di fiducia entra in gioco, inevitabilmente, anche nel nostro rapporto con l’intelligenza artificiale, non come atto ingenuo, ma come necessità, perché senza una qualche forma di fiducia, non potremmo utilizzare davvero questi strumenti.
Allo stesso tempo, però, questa fiducia non è ancora stabilizzata e non è sedimentata nel tempo, come invece è accaduto, ad esempio, per quella che abbiamo sviluppato nei confronti di altre figure o istituzioni.
Ci troviamo in definitiva in una condizione oscillante, perché a volte incliniamo verso una delega quasi automatica, accettando le risposte senza troppo filtrarle, mentre altre volte reagiamo con un sospetto diffuso, mettendo in dubbio tutto, anche ciò che probabilmente meriterebbe di essere accettato.
Questa ambivalenza, tuttavia, non è una manifestazione d’incoerenza, ma una fase di adattamento a un fenomeno nuovo e prorompente, verso il quale – ammesso che lo si voglia – dobbiamo ancora sviluppare una forma sana di convivenza.
Nel corso di questo percorso di adattamento, tuttavia, accade spesso qualcosa di più sottile e, senza rendercene conto, iniziamo a definire una soglia, un punto oltre il quale smettiamo di verificare.
Non lo facciamo esplicitamente né, forse, in modo del tutto consapevole. Non definiamo in modo netto una soglia oltre la quale decidiamo di non fidarci più, ma comunque ognuno di noi ha probabilmente un punto oltre il quale la fiducia vacilla o viene del tutto meno.
Ciò che accade prima di questo punto accade ogni volta che accettiamo una risposta senza approfondire, ogni volta che scegliamo di non controllare un passaggio, ogni volta che decidiamo, consapevolmente o meno, che il livello di affidabilità è sufficiente per i nostri scopi.
È proprio in questo punto che si gioca la partita più interessante. Non nella delega in sé, che è inevitabile, né nello spirito critico, che resta fondamentale ma ha limiti strutturali, ma nella nostra capacità di riconoscere quel punto, di renderlo almeno in parte visibile, di interrogarlo.
Un punto che non è fisso, perché cambia con noi, con l’esperienza, con il contesto, con il tipo di domanda. Ci fidiamo in modo diverso di una risposta tecnica, di un suggerimento operativo, di una riflessione astratta e, soprattutto, impariamo nel tempo, per tentativi ed errori, a calibrare questa fiducia.
In definitiva, quindi, la questione non è se l’intelligenza artificiale ci porterà a pensare meno, ma se saremo in grado di sviluppare una nuova forma di consapevolezza, che ci permetta di capire quando stiamo smettendo di verificare, e perché lo stiamo facendo.
Dobbiamo prendere atto – inevitabilmente – che non possiamo controllare tutto, non possiamo verificare ogni passaggio e non possiamo eliminare la delega. Possiamo però, almeno in parte, imparare a riconoscere il momento in cui affidiamo il nostro orientamento a qualcosa che non comprendiamo del tutto.
Quando navighiamo senza vedere la costa, continuiamo comunque a muoverci. Non nella certezza di ciò che incontreremo, ma in un equilibrio dinamico tra ciò che sappiamo, ciò che intuiamo e ciò di cui, inevitabilmente, scegliamo di fidarci.