Go down

Yoshua Bengio, considerato da molti uno dei padrini dell'intelligenza artificiale, è da tempo in prima linea nella ricerca sull'apprendimento automatico. Negli ultimi anni le sue opinioni sulla tecnologia sono cambiate. Non a caso è impegnato a spiegare quali possano essere i rischi posti dall'intelligenza artificiale e a suggerire cosa si potrebbe fare per sviluppare un'intelligenza artificiale più sicura e attenta ai bisogni dell'essere uano.


Yoshua Bengio, uno dei pionieri del deep learning e vincitore del Turing Award, ha assunto negli ultimi anni una posizione molto critica sullo sviluppo dell'intelligenza artificiale, diventando una delle voci più autorevoli nel dibattito sulla sicurezza dell'IA.

Bengio evidenzia diversi rischi fondamentali. In primo luogo, teme che sistemi di IA sempre più potenti possano essere utilizzati in modo improprio da attori malintenzionati per creare armi autonome, diffondere disinformazione su larga scala o condurre attacchi informatici sofisticati. La sua preoccupazione non riguarda solo l'uso deliberatamente dannoso, ma anche la possibilità che sistemi avanzati sfuggano al controllo umano.

Un altro punto centrale del suo pensiero riguarda la concentrazione di potere. Bengio avverte che poche grandi aziende tecnologiche stanno controllando lo sviluppo dell'IA più avanzata, con rischi per la democrazia e l'equità globale. Questa concentrazione potrebbe amplificare le disuguaglianze esistenti e creare nuove forme di dominio economico e politico.

Bengio sostiene che l'attuale corsa competitiva tra aziende per sviluppare IA sempre più potenti sia pericolosa. Propone invece un approccio più cauto e deliberato, dove alla sicurezza e all'allineamento dei sistemi ai valori umani venga dato una maggiore priorità rispetto alla velocità di sviluppo che ogni nuova tecnologia, e oggi in particolare la tecnologia IA, richiede.

Tra le sue proposte concrete ci sono: una regolamentazione internazionale più stringente, maggiore trasparenza da parte delle aziende che sviluppano IA avanzate, investimenti massicci nella ricerca sulla sicurezza dell'IA, e la creazione di istituzioni indipendenti che possano valutare e monitorare i rischi dei nuovi sistemi prima del loro rilascio.

Per Bengio, costruire IA "a portata di esseri umani" significa sviluppare sistemi che siano:

Interpretabili e controllabili: dovremmo essere in grado di comprendere come questi sistemi prendono decisioni e di mantenerli sotto controllo umano effettivo.

Allineati ai valori umani: i sistemi devono essere progettati per rispettare principi etici fondamentali e il bene comune, non solo per ottimizzare metriche tecniche.

Distribuiti equamente: i benefici dell'IA dovrebbero essere accessibili a tutta l'umanità, non concentrati in poche mani.

Sviluppati con prudenza: serve un approccio precauzionale che valuti attentamente i rischi prima di rilasciare nuove capacità.

Bengio ha anche espresso pubblicamente rammarico per il suo stesso contributo allo sviluppo dell'IA, riconoscendo di non aver previsto come le sue ricerche sarebbero state utilizzate. Questo lo ha spinto a diventare un attivista per uno sviluppo più responsabile, firmando lettere aperte e testimoniando davanti ai governi per chiedere regolamentazioni più forti.

La sua posizione rappresenta un punto di vista importante nel dibattito: quello di chi, dall'interno della comunità scientifica che ha creato questi sistemi, riconosce la necessità di rallentare e riflettere prima che sia troppo tardi per correggere la rotta.


Per chi avesse sottoscritto un abbonamento alla rivista Nature troverebbe interessanti i seguenti documenti online:

Pubblicato il 19 dicembre 2025

Carlo Mazzucchelli

Carlo Mazzucchelli / ⛵⛵ Leggo, scrivo, viaggio, dialogo e mi ritengo fortunato nel poterlo fare – Co-fondatore di STULTIFERANAVIS

http://www.stultiferanavis.it