Go down

Alcune riflessioni sulle numerose teorie di Ai malevola e sul modo con cui certuni gruppi di interesse potrebbero usare la paura dell'Ai forse per interessi più personali che realmente orientati a proteggere la razza umana.


La sicurezza dell'Ai ha da subito interessato un nutrito gruppo di persone che si sono attivate per metterci in guardia (e spesso anche terrorizzarci) sul rischio esistenziale associato allo sviluppo dell'Intelligenza Artificiale.

Ormai da tempo infatti si confrontano, a suon di ipotesi apocalittiche, diverse associazioni, gruppi, enti, think tank autorevoli o meno, dove i partecipanti si fanno portavoce di un pericolo imminente, quasi come accadeva in taluni celebri movimenti religiosi del secolo passato.

A volte ipotizzano persino delle date in cui si consumerebbe la catastrofe "umani contro Ai" introducendole con la classica formulazione: "entro il.."

Poi però il tempo passa e allora capiscono che devono essere più prudenti quindi evitano il calendario e passano alle più criptiche interpretazioni profetiche. Alla Nostradamus.

Gli basta che ci sia un indizio tale per cui se succede qualcosa possono dire: "noi lo avevamo detto (anzi scritto)" mentre se non succede nulla aspettano e reiterano la medesima profezia. Insomma a furia di dire che uno si può ammalare forse prima o poi ci scapperà un'influenza. Ma non per questo chi l'ha ripetuto in continuazione aveva ragione.

Nel frattempo devono anche convincerci che la ricerca sull'Ai è una sorta di corsa verso il baratro. Dove la società moderna e contemporanea è preda del peggior sonno della ragione: invece di fermarsi a riflettere accelera a tutto gas spingendo il veicolo "umanità" verso l'inevitabile strapiombo. Che loro vedono ma tutti gli altri no.

Ricorda molto la barzelletta da black humor dell'uomo che cade da un palazzo e piano dopo piano ripete: "fin qui tutto bene".

Per convincerci fanno quindi appello a nuovi millenarismi della catastrofe finale (sempre imminente) attraverso una serie di argomentazioni frequentemente associate a degli esempi.

Prevalentemente ce ne sono di tre tipi in circolazione:

1) I paragoni e le riflessioni filosofiche.

Es. gli umani non sono più in grado di battere una Ai a giochi come scacchi, Go! o warcraft e altri.

Giochi più o meno ben noti al pubblico che di solito vengono associati a intelligenza, quoziente intellettivo, ecc. ecc.

Non avrebbe senso affermare che non siamo più in grado di battere l'Ai a mikado o a domino.

Il motivo è che così facendo possono insinuare una teoria abbastanza semplicistica e cioè che noi saremmo diventati la specie dominante grazie all'intelligenza ma adesso stiamo creando qualcosa di più intelligente di noi. Un salto evolutivo. A buon intenditor..

In buona sostanza i teorici di questo paragone ci vengono a dire che l'uomo non è mai stato più forte di una tigre, di uno squalo o di un anaconda. Ma è riuscito ugualmente a sopravvivere nel corso della storia imponendosi grazie all'intelligenza che gli avrebbe dato il primato e il controllo del pianeta. Tutto ciò è in parte vero. Ben inteso. Il ragionamento di fondo pur essendo davvero elementare funziona nel senso che è difficile da smentire. Però ci sono alcuni particolari di non poco momento da tenere in considerazione.

Questa teoria parte dal presupposto che il destino dell'uomo sia simile a quello dei cattivi dei cartoni animati degli anni 80 dove qualcuno sufficientemente fanatico grida "il mondo è mio!".

Certamente per alcuni che amano banalizzare il percorso evolutivo e ridurre il bagaglio culturale acquisito a un semplice paura di essere sorpassati, il nostro ruolo sarebbe unicamente quello di occupare questo pianeta, depredarlo delle risorse e vivere in eterno in questo modo (o perlomeno fintanto che il sovraffollamento non ci spingerà a migrare altrove rigorosamente senza il ricorso all'Ai).

Nel frattempo questa nostra intelligenza fantastica che ci ha permesso di uccidere la tigre, lo squalo e l'anaconda ci sta anche paradossalmente annientando.

Infatti se ci guardiamo intorno con un sentimento critico tutta questa magnificenza potrebbe essere messa in discussione. Cambiamento climatico, inquinamento, disuguaglianza, diritti umani, guerra, povertà, fame e molto altro ancora sembrano essere l'attualità in 3/4 del Mondo. Ci sono ben 57 conflitti in corso, almeno 10 crisi umanitarie con milioni di morti e sfollati. L'1-3% dell'umanità detiene circa il 75/80% delle risorse e della ricchezza. I popoli della Terra e in particolare quelli dell'occidente civilizzato non sono mai stati tanto infelici. Siamo preda di un annichilimento della ragionevolezza e del buon senso che ci spingono verso le peggiori manifestazioni del nostro Io. Siamo passivi, disinteressati, ipocriti, egoisti, avidi, utilitaristi, ignoranti, superficiali e tutto questo spesso riusciamo ad esserlo nell'arco di 24 ore. Soffriamo solitudine e incomprensione. Desideriamo e proiettiamo sempre la nostra realtà nel futuro prossimo. Viviamo in una gabbia senza sbarre circoscritta alla ritualità della quotidianità. Trasferiamo le tensioni e le passioni sui vari social e crediamo che la società della comunicazione globalizzata ci abbia reso più partecipi invece non abbiamo nessun potere di controllare gli eventi.

Tutta questa nostra intelligenza forse ci ha permesso di sopravvivere. Ma viviamo anche la pienezza delle nostre possibilità? A ben guardare questo metodo furbo di proporre un ragionamento minimalista dove l'Ai è il pericolo pubblico numero uno è invece orientato a creare una leva, anzi forse meglio sarebbe il grimaldello, con cui metterci paura. Insinuando il dubbio. Sfruttando proprio tutti quei limiti che ahimè sono il DNA delle masse in quest'epoca. Fingendo che c'è qualcosa che ci può essere portato via. Che quello che per noi è tanto e che però non ci attribuisce soddisfazione è ciò che in realtà l'Ai vorrebbe per se stessa! Quindi noi saremmo un pericolo per l'Ai.. 

Questa storiella scricchiola da più parti. Quel che spaventa maggiormente è il tentativo di manipolare i destinatari con una strategia più furba che intelligente. Facendoci cioè credere che abbiamo creato il nostro solito mostro di Frankenstein.

2) Ci attaccherà e ci distruggerà!

Torniamo ai cartoni animati, nemmeno troppo impegnativi per la verità però più affascinanti di questi stereotipi. I teorici dell'Ai malevola ci propongono alcune possibili "soluzioni finali" con cui la macchina intelligente ci sterminerà. E sono una via di mezzo tra la paranoia e la schizofrenia. Sono narrazioni che sembrano uscite dal manuale: "di ossessioni e dove trovarne". Utili forse in delle sceneggiature di scadente fattura.

E' quasi più credibile che una razza aliena attraversa il cosmo e sceglie la Terra per conquistarla avviando una guerra di mondi a suon di dischi volanti e navicelle spaziali.

I modi con cui l'Ai ci dovrebbe estinguere sono peraltro a dir poco fanciulleschi.

Scorrendo in internet troviamo per esempio oltre che articoli (davvero molto simili tra loro), una serie di video (alcuni realizzati peraltro proprio con l'Ai!) dove le trame sono sempre quelle più o meno del cinema. Edulcorate da ragazzi giovani che ben vestiti, pettinati, con un viso pulito e curato, muovendosi come sul palcoscenico di un reality e con un atteggiamento da influencer di tiktok ci spiegano come per esempio che l'Ai userà l'atomica contro di noi.

E sono spiegazioni talmente semplificate che sembrano le regole del risiko o della dama.

Vanno per la maggiore due strategie della super intelligenza artificiale che usa l'atomica: la prima è quella che prevede come l'Ai prende il controllo e lancia i missili (diciamo che è un'idea un pò vecchiotta, ai miei tempi si chiamava "Terminator"). Mentre la seconda è che l'Ai costringe noialtri, intesi come le superpotenze, a lanciarli. Come? Beh si parte dal presupposto che l'Ai controlla i sistemi di difesa più all'avanguardia e che potrebbe pertanto simulare un attacco. Per effetto chi si vede destinatario dello stesso potrebbe replicare o quantomeno attivarsi così mettendo il presunto aggressore nelle condizioni di fare altrettanto. Un escalation. Tutti convinti di essere attaccati finiamo per attaccarci per davvero.

Si tratterebbe quindi di un inganno.

In buona sostanza un bel giorno nella classica stanza dei bottoni dove si monitora la sicurezza compare un missilone con annessa testata nucleare sparato per esempio da una nazione dell'est verso l'America e allora quest'ultima che non sa che non è vero ed è solo una simulazione della cattivissima Ai si allerta e si prepara a sua volta a lanciare per risposta. Nel farlo mette sul chi vive anche altre nazioni che a loro volta vengono ingannate e pensano che per esempio gli USA abbiano deciso di attaccarli perché vedono un altro missilone sparato contro. Ma in realtà è solo l'Ai che gongola mentre gli umani ci cascano e giocano a fare la guerra.

Siccome nessuno li vede questi missili, se non sui radar (controllati dall'Ai) finiamo per tirarceli per davvero.

Con buona pace peraltro delle centinaia e centinaia di video che ci hanno detto che questo avrebbe potuto verificarsi. Tutte povere Cassandre inascoltate.

Queste cose sono davvero infantili.

Possono far presa solo su chi ha passato troppo tempo a giocare ai videogame o a vivere la realtà dissociativa del social o di tutto ciò che oggi ingabbia l'umano in un Sottosopra di qualunquismo e povertà di idee.

Domanda: perché mai un'intelligenza così superiore come una super intelligenza dovrebbe aver bisogno di usare strumenti e strategie tanto umane? Invece di prendere il controllo delle testate nucleari o di simulare il lancio per farci estinguere da soli non potrebbe crearne? Magari invece dell'uranio la super intelligenza è in grado di realizzarne di più potenti e distruttive, delle dimensioni di un carrello della spesa che si attivano con l'energia solare o altro.. Perché fare ricorso a una strategia così umana?

Siamo noi che ipotizziamo di farci fuori in questo modo. Non l'Ai.

E chi sostiene queste cose non sa nemmeno lontanamente di cosa parla. Probabilmente nemmeno sanno quali sono gli effetti delle radiazioni o del fallout sugli stessi computer che dovrebbe ospitare la vita dell'Ai.

Una super intelligenza troverebbe altri metodi molto più efficaci, diretti e meno complicati per sterminare la vita, ammesso (e certamente non concesso) che serva.. una macchina intelligente per quale motivo dovrebbe voler controllare il Mondo? Che se ne farebbe? Potrebbe anche andarsene. Non ha i nostri limiti nell'esplorazione spaziale. Noi abbiamo la tendenza a considerarci il centro del tutto. Immensamente grandi, unici e irripetibili. Ma verosimilmente visti dallo spazio o anche solo dall'atmosfera siamo soltanto infinitamente piccoli rispetto al creato. Per quale ragionevole motivo un Ai, dovrebbe sentirsi minacciata dall'umanità? Siamo già in grado noi di farci del male (e lo facciamo benissimo). Questo è l'unico dato scientificamente dimostrato.

3) Ci hanno già provato!

Il delirio sulla sicurezza aumenta quando i vari commentatori on line cominciano a raccontare quelle presunte falle nella sicurezza che filtrano dalle grandi società che si occupano di programmare l'Ai. Episodi come il fatto che un'Ai messa di fronte all'ipotesi di essere spenta ha provato a ingannare i supervisori umani. O ha barato per ottenere un premio in un gioco simile a quelli del retrogaming degli anni 70 durante un addestramento.

Insomma tutta una serie di racconti, a mò di resoconto, di storie che raccolgono informazioni da quello che viene lasciato filtrare prevalentemente dai laboratori dove si studia e si addestrano le Ai. Che viene riproposto al pubblico come un sancta sanctorum di verità assoluta. Una sorta di rivelazione inquietante. Sempre sotto l'egida del pericolo imminente.

Molto più verosimilmente chi predica tutte queste storielle non ha nessun accesso alle più recenti evoluzioni della ricerca sull'Ai. E si spende in queste avvertenze senza sapere che buona parte delle notizie viene rilasciata all'esterno non a caso, ma perché c'è quasi sempre un motivo. In molti casi sono logiche di marketing, investimenti e depistaggio aziendale. Sono modi per attrarre attenzione, suggerire sviluppi e interessare investitori. La comunicazione nell'Ai ha subito, dal punto di vista delle imprese, un'evoluzione tale per cui trattandosi di una frontiera si punta spesso a interessare il pubblico creando un coinvolgimento sulle aspettative davvero simile a trama sci-fi. Non stiamo parlando di un ferro da stiro parlante, ma di un qualcosa che si può definire o di cui si può parlare a volte tramite eventi che catturano l'attenzione.

Ma purtroppo in non pochi casi i teorici della sicurezza a oltranza li scambiano come le proverbiali lucciole per lanterne. E le rivendono come tali.

Come se non bastasse e fateci caso, per tutti costoro la sicurezza può sempre essere migliorata.

Si prendono il discutibile gusto di fare valutazioni approssimative e di proporre tutta una serie di ipotesi, molto teoriche e poco pratiche, su come si potrebbe monitorare di più e meglio lo sviluppo dell'Ai. Non dicono mai che il livello di guardia è opportuno o quale dovrebbe esserlo. E' sempre migliorabile.

Ancora, messi di fronte ai propri limiti concettuali e all'infantilismo con cui provano a manipolare le masse riparano dietro l'idea che un errore sarebbe l'ultimo e irreversibile. Il rischio è che se sbagli muori. L'Ai non perdona.

Tutto molto comodo.

Mettendo insieme questa macchia di propaganda si ottengono soltanto le solite premure lato catastrofe per farci vivere sul chi va là. Coloro che perseverano in questa causa non lo fanno per scopi veramente altruisti ma il più delle volte per cercare un lavoro. Vogliono ardentemente trasformare la paura degli altri nella loro business machine.

Non solo lavoro. Ma anche ruoli governativi. I presunti supervisori anti-Armageddon non vedono l'ora di occupare le poltrone con annessi bonifici di mese in mese per supervisionare e portare sicurezza al mondo. Il messaggio sarebbe: "dormite adesso sonni tranquilli perché ci siamo noi a vigilare e sappiamo cosa fare.". Wow! Dei veri benefattori!

Qui abbiamo un problema di fondo che è l'ipocrisia del conflitto di interessi.

Parlare del rischio di sostituzione di manodopera lavorativa con l'Ai è un ragionamento saggio. Autorevole. Responsabile. Probabilmente in termini percentuali è anche molto realista. Un problema vero.

Ipotizzare che per evitare questo scenario bisogna vedere, concepire e controllare l'Ai è utopico. Si parte da un presupposto giusto per ingenerare una paura giustificabile e raggiungere un risultato impossibile: la previsione distruttiva.

Non ci sono infatti predizioni che tengano.

Questa tendenza a mettere anni e date in mezzo per creare un climax di stallo è un modo per utilizzare la tensione. Una strategia di comunicazione.

Si fingono molto esperti per trasmettere l'idea che conoscono di cosa parlano. Che sono in qualche modo "del ramo" e quindi creano anche più nemici! Da mettere in una sorta di correlazione con il tempo che inesorabile sta per scadere. Come possono essere ad esempio prima le "semplici Ai" che ormai non mettono più tanta paura e la gente sta già usando (quindi non funzionano più come spaventapasseri), pertanto ecco che arriva una via di mezzo che a volte viene denominata Agi, che farà da ponte versò l'entità futura: una superintelligenza. Una sorta di Voldemort, Sauron, Vecna, ecc. ecc. 

Insomma il super cattivo di fine livello nei cabinati degli anni 90.

Negli ultimi due o tre anni di progetti sulla sicurezza anti-Ai ho avuto modo di vederne. Mi hanno provato a coinvolgere in iniziative che se indagate, anche dal lato start-up erano solo pura teoria. Si ha prevalentemente a che fare con persone che non hanno nessuna esperienza pratica, buoni studi, ottime pubblicazioni (più di taglio accademico) e messe insieme puntano a far sì che qualcuno gli dia o gli attribuisca un ruolo in nome della loro presunta preparazione. Mi hanno spesso ricordato quelli che dopo non aver mai fatto una start-up o averla costituita ed essere falliti puntano a insegnare agli altri come si creano start-up di successo.

Allo stesso modo questi teorici della sicurezza anti-Ai, usando il timore reverenziale per cercare di accaparrarsi ruoli guida come santoni baciati di una conoscenza oracolare che dispensano sempre nello stesso modo: più controlli. La formula dei sacerdoti del culto anti-Ai è un esasperazione burocratica di verifiche su verifiche. Una continuazione di stop & go. Perché sanno parlare molto del problema, moltissimo del pericolo ma non di come risolverlo.

Questo è un piano molto umano per controllarci attraverso un nemico che idealmente è potentissimo e pronto ad asservire il mondo al suo tecnologico potere, distruggendo la razza umana e trasformando la Terra in una specie di storia da Marvel/Dc.

Forse la domanda che dovremmo porci è: non sarà che sono più pericolosi quelli che vogliono tenerci al sicuro dall'Ai rispetto che l'Ai stessa?


Pubblicato il 08 gennaio 2026

Marco Solferini

Marco Solferini / Avvocato titolare dello Studio Legale Solferini. Diritto civile, bancario, del risparmio, diritto di Famiglia e successioni. Diritto commerciale e societario.

https://www.studiolegalesolferini.com/