Cosa stiamo davvero affidando all’intelligenza artificiale?
Per secoli abbiamo delegato alle macchine la forza fisica.
La rivoluzione industriale è nata esattamente da questo: ingranaggi, motori e catene di montaggio che sollevavano pesi, spostavano materiali, acceleravano processi che il corpo umano da solo non poteva sostenere.
Le macchine non pensavano. Lavoravano e l’essere umano restava sempre il centro del processo decisionale, con l’arrivo dell’intelligenza artificiale sta succedendo qualcosa di diverso e per la prima volta nella storia della tecnologia non stiamo delegando soltanto attività operative.
Stiamo iniziando a delegare parti del processo cognitivo.
Scrivere un testo. Riassumere un documento. Analizzare dati. Suggerire strategie. Generare codice. Preparare presentazioni. Molte delle attività che oggi affidiamo ai sistemi di AI non riguardano la forza, ma il pensiero.
Non è una sostituzione completa della mente umana. Ma è comunque una forma nuova di delega e penso che qui la questione diventa interessante.
Ogni tecnologia modifica l’equilibrio tra ciò che facciamo direttamente e ciò che affidiamo agli strumenti. Quando usiamo un navigatore GPS, per esempio, stiamo delegando una parte della nostra capacità di orientamento. Quando utilizziamo una calcolatrice, stiamo delegando il calcolo. Con i motori di ricerca abbiamo iniziato a delegare anche una parte della memoria.
L’intelligenza artificiale rappresenta un passo ulteriore.
Non delega solo un’operazione. Interviene nella fase intermedia tra informazione e decisione, potremmo dire che deleghiamo anche la sintesi.
Un modello generativo legge centinaia di pagine e produce un riassunto. Analizza grandi quantità di dati e propone interpretazioni plausibili. Suggerisce possibili soluzioni prima ancora che l’utente abbia completato il proprio ragionamento.
Questo significa che l’AI entra in uno spazio che fino a poco tempo fa era considerato esclusivamente umano: quello della costruzione del significato.
Naturalmente questo non significa che le macchine “pensino” nel senso umano del termine. I modelli statistici non hanno intenzioni, coscienza o comprensione nel senso filosofico della parola. Il punto è che, nel momento in cui ci affidiamo a questi sistemi, iniziamo a spostare su di loro una parte del lavoro cognitivo che prima svolgevamo internamente.
Il problema nasce quando la delega diventa invisibile e smettiamo di percepire che una parte del nostro processo decisionale è stata trasferita a uno strumento.
Se un navigatore sbaglia strada ce ne accorgiamo facilmente. Ma quando un sistema di AI propone una sintesi plausibile o una risposta convincente, la tentazione di accettarla senza verifica può diventare molto forte.
Non perché le persone siano ingenue, ma perché siamo naturalmente portati a ridurre lo sforzo cognitivo.
In psicologia questo fenomeno è ben noto: quando esiste una scorciatoia affidabile, tendiamo a usarla.
L’intelligenza artificiale è una scorciatoia potentissima.
Il rischio quindi non è la presenza dell’AI nel processo decisionale, ma la progressiva sospensione del giudizio critico quindi se la macchina suggerisce, riassume e interpreta, il ruolo umano deve spostarsi verso qualcosa di diverso: la supervisione.
In altre parole, il valore non sta più soltanto nel produrre contenuti o analisi, ma nel saper valutare ciò che viene prodotto.
Questo cambiamento è molto più profondo di quanto sembri.
Per decenni la competenza è stata associata alla capacità di generare risposte. Con l’AI diventa sempre più importante la capacità di porre le domande giuste, interpretare i risultati e riconoscere i limiti degli strumenti, in questo senso l’intelligenza artificiale non elimina il ruolo umano. Lo ridefinisce.
Se la macchina diventa un copilota, qualcuno deve comunque restare al comando.
E questo significa mantenere attiva la responsabilità intellettuale: verificare le fonti, comprendere il contesto, riconoscere quando una risposta è plausibile ma non corretta.
La delega cognitiva funziona solo quando resta consapevole.
Nel momento in cui smettiamo di accorgerci di aver delegato, il processo si trasforma in automatismo.
E gli automatismi, soprattutto quando coinvolgono sistemi complessi, possono produrre conseguenze difficili da prevedere quindi è importante lavorare sulla capacità degli esseri umani di convivere con strumenti che amplificano enormemente le nostre possibilità senza ridurre la nostra responsabilità.
Delegare non è un problema. Fa parte della storia della tecnologia, il problema nasce quando dimentichiamo che stiamo delegando perché nel momento in cui smettiamo di accorgercene, il rischio non è che le macchine inizino a pensare come noi.
Il rischio è che noi iniziamo a pensare un po’ meno.