Quando si parla di regolamentazione dell'intelligenza artificiale, la prima reazione è quasi sempre la stessa: qualcuno sta cercando di mettere dei limiti. Algoritmi da controllare. Modelli da certificare. Codice da rendere più sicuro. È una lettura intuitiva. Ma è anche fuorviante.
L'AI Act non nasce per regolamentare la tecnologia. Nasce per regolamentare l'uso dei sistemi AI in base ai rischi che possono generare. È un cambio di prospettiva sottile, ma decisivo.
Per anni abbiamo guardato all'intelligenza artificiale chiedendoci come funziona. Come viene addestrato un modello. Quanto è accurato. Dove sbaglia. L'AI Act sposta il focus altrove. Non importa solo come funziona un sistema. Importa in quale contesto viene usato e quale impatto può avere su persone reali.
Lo stesso modello può essere usato per scrivere una mail o per supportare una decisione su un prestito bancario. Può generare un'immagine o contribuire a una diagnosi oncologica. Dal punto di vista tecnico, è lo stesso tipo di sistema. Dal punto di vista del rischio, e delle conseguenze, è completamente diverso.
Ed è qui che interviene la regolamentazione. Non per definire come costruire un algoritmo. Ma per stabilire quali requisiti devono essere rispettati quando quel sistema può influenzare diritti, opportunità o sicurezza delle persone.
Un avvocato che usa un sistema AI per analizzare contratti e individuare clausole problematiche. Un medico che si affida a un modello per supportare una diagnosi differenziale. Un HR manager che usa uno strumento automatizzato per scremare le candidature. In tutti e tre i casi, il sistema AI supporta o contribuisce alla decisione. Ma se l'output è sbagliato, se il contratto viene mal interpretato, la diagnosi è fuorviante, il candidato giusto viene scartato, la responsabilità non si trasferisce al modello. Resta in capo a chi ha deciso di usarlo. E a chi ha firmato.
Questo è il punto che l'AI Act rende esplicito. E che molti preferiscono non vedere.
Perché c'è una dinamica sempre più diffusa: delegare senza accorgersene. Non è una delega dichiarata. Non è rumorosa. Avviene nel momento in cui l'output arriva veloce, sembra coerente, è ben formulato, e noi smettiamo di interrogarlo. Il problema non è la velocità del sistema. È la nostra risposta a quella velocità. Più un output è convincente, meno sentiamo il bisogno di verificarlo. E così il punto di controllo si sposta, non perché la tecnologia lo imponga, ma perché siamo noi a cedere spazio.
Ma c'è una domanda che l'AI Act solleva e che nessuna norma può risolvere al posto nostro. Se la responsabilità è formalmente mia, ma il sistema che ho usato è opaco, se non riesco a spiegare perché ha prodotto quell'output, come esercito davvero quella responsabilità? Non è una domanda retorica. È la domanda che un giudice, un paziente o un candidato escluso potrebbe fare. E la risposta non sta nel codice. Sta nella capacità di chi usa questi strumenti di sapere quando fidarsi, quando verificare e quando fermarsi.
L'AI Act, in fondo, non è una legge sulla tecnologia. È una legge sul confine. Tra ciò che possiamo delegare e ciò che dobbiamo continuare a presidiare. Tra velocità e giudizio. Tra automazione e responsabilità.
La tecnologia diventerà più potente, più integrata, più invisibile. Ma una cosa non cambia: quando qualcosa va storto, qualcuno deve poter rispondere.
Quel qualcuno non è il modello.
Sei tu.
E non puoi delegarlo.