Due notizie, una direzione
Il 13 maggio 2026 il Consiglio UE ha confermato l’accordo sul Digital Omnibus, che modifica l’AI Act su un punto apparentemente minore: la formazione. L’articolo 4 originale obbligava le organizzazioni a garantire che il proprio personale avesse un livello adeguato di alfabetizzazione sull’intelligenza artificiale. Il nuovo testo trasforma quell’obbligo in qualcosa di molto più vago: una generica intenzione di supporto, spostando la responsabilità formativa dalle imprese agli Stati membri. Nella pratica: discrezionalità quasi totale per chi usa questi sistemi.
Pochi giorni prima, il 30 aprile, era stata pubblicata la norma UNI 11621-8:2026, che definisce i 12 profili professionali dell’intelligenza artificiale. L’Italia è il primo paese europeo ad averlo fatto. I profili coprono tutta la filiera: dal Chief AI Officer all’AI Research Scientist, passando per il Prompt Engineer, il Data Scientist, il Machine Learning Engineer. Un ecosistema professionale strutturato, certificabile, misurabile.
I due movimenti vanno nella stessa direzione: verso una polarizzazione sempre più netta tra chi governa l’intelligenza artificiale e chi la consuma.
Sei un utente. Sei un mercato
La parola “consumatore” non è casuale. È la categoria che questo sistema, pezzo dopo pezzo, sta costruendo intorno a chiunque usi l’AI senza avere un certificato o un titolo professionale riconosciuto. Non importa se sei un responsabile HR che usa un sistema di selezione algoritmica, un medico che riceve raccomandazioni da un supporto clinico AI, un manager che approva un piano ottimizzato da un agente autonomo, un imprenditore che affida la gestione dei processi a strumenti che non ha scelto davvero e non capisce fino in fondo. Sei un utente. Sei un mercato. Sei qualcuno a cui vendere lo strumento già confezionato, già ottimizzato, già certificato da qualcun altro.
Questo però non è un punto di partenza. È il punto di arrivo di un processo lungo.
Da decenni il lavoro intellettuale e organizzativo è stato progressivamente svuotato della sua dimensione relazionale. Prima con la svolta manageriale degli anni ‘80, che ha trasformato ogni attività professionale in prestazione misurabile e rendicontabile, e ha cominciato a trattare la relazione, che non si misura facilmente, come inefficienza. Poi con la digitalizzazione degli anni 2000, che ha sostituito la fiducia costruita nel tempo con il rating, la valutazione istantanea, la transazione. Poi con la gig economy, che ha frammentato il lavoro intellettuale in micro-compiti sempre più simili a istruzioni per una macchina. L’intelligenza artificiale ha trovato questo processo già avviato, e lo sta portando a compimento con una velocità che non lascia tempo di accorgersi di cosa si perde.
Un’infrastruttura cognitiva, non uno strumento
L’intelligenza artificiale non è semplicemente un macchinario che fa una cosa specifica in un posto specifico. È qualcosa che entra nei processi cognitivi, decisionali, produttivi, comunicativi. Si installa dentro il ragionamento delle persone, dentro le scelte delle organizzazioni, dentro le decisioni che riguardano la salute, il lavoro, il credito, la giustizia. Con l’AI agentiva, quella che pianifica, agisce, orchestra sistemi e delega ad altri agenti, questo processo diventa infrastruttura. Non usi più l’AI: ci abiti dentro, spesso senza saperlo.
Quando l’infrastruttura cognitiva di un’organizzazione è gestita da chi non sei tu, quando le decisioni che ti riguardano passano per sistemi che non capisci, progettati da altri, certificati da altri, ottimizzati per obiettivi che non hai definito tu, la questione smette di essere tecnica e diventa politica. È una questione di potere: chi decide cosa, su quale base, con quale comprensione di ciò che sta accadendo.
I territori del potere
Il campo dell’AI sta costruendo i propri territori di potere con grande coerenza. Da un lato ci sono i giuristi, che stanno trasformando la compliance normativa in un sapere proprietario, un linguaggio tecnico-legale che le imprese non parlano e che richiede intermediazione specialistica per essere attraversato. Dall’altro i tecnocrati, che attraverso standard come la norma UNI definiscono chi può legitimamente stare nel campo e con quale titolo. In mezzo, un mercato gigantesco: i grandi player tecnologici che nel 2026 hanno pianificato investimenti superiori ai 650 miliardi di dollari, costruendo barriere all’ingresso che nessun altro attore potrà mai replicare.
Ciascuno di questi movimenti ha una sua razionalità interna. I giuristi fanno il loro mestiere. I normatori danno ordine a un campo caotico. Le big tech investono perché è razionale farlo. Il problema è il risultato d’insieme: un campo che si tecnicizza, si specializza, si certifica, e nel farlo espelle silenziosamente chiunque non abbia il titolo o il linguaggio giusto. Lo spazio dove potrebbe abitare una comprensione diversa, più pratica, più relazionale, più vicina al modo in cui le organizzazioni funzionano davvero, viene occupato da profili UNI, obblighi di compliance, linguaggi che le persone non parlano e non sono più obbligate a imparare.
Solo una firma
E tuttavia quel sistema continua a chiederti di rimanere responsabile.
Il principio del human in the loop, la supervisione umana per tutti i sistemi AI ad alto rischio in sanità, in finanza, nelle HR, nella pubblica amministrazione, è rimasto intatto nel Digital Omnibus. Chi usa questi sistemi risponde delle decisioni che ne derivano: per contratto, per ruolo, per legge. In Italia, la Legge 132/2025 ha reso questo principio ancora più esplicito per la pubblica amministrazione.
La contraddizione è semplice e concreta: ti alleggeriscono dall’obbligo di imparare e ti lasciano intatto l’obbligo di rispondere.
Un umano nel ciclo decisionale che non capisce cosa sta guardando non è una garanzia. È solo una firma. E quando qualcosa va storto, la responsabilità è sua, non dell’algoritmo.
Il problema non è la capacità delle persone
Io non sono un tecnico. Sono qualcuno che lavora con l’intelligenza artificiale da anni, che la studia, che la insegna nelle imprese. Quello che vedo con più chiarezza, lavorando dentro le organizzazioni, è che il problema non è mai la capacità delle persone. È la narrazione che viene loro consegnata su sé stesse.
L’intelligenza artificiale non è inaccessibile. Richiede qualcosa di molto più vicino a competenze che le persone hanno già: capire un interlocutore, fare domande buone, interpretare risposte, riconoscere quando qualcosa non torna. Richiede relazione. La stessa capacità che usi quando valuti un consiglio, quando ti fidi o non ti fidi di qualcuno, quando senti che una risposta è plausibile ma non è giusta.
Questa dimensione relazionale è esattamente quella che il mercato dell’AI non riesce a vendere e non ha interesse a sviluppare. Non si certifica. Non produce un profilo UNI. Non genera compliance. Non si presta a essere confezionata in un corso obbligatorio da tre ore per adempiere all’articolo 4. Richiede tempo, consapevolezza, esposizione critica allo strumento, e un’idea di formazione che non sia addestramento all’uso ma educazione al rapporto.
Espropriazione
Il risultato di questo processo è che gli umani accettano progressivamente, quasi senza accorgersene, di essere consumatori di qualcosa che dovrebbero invece poter governare. Un sistema complessivo, normativo, tecnocratico, di mercato, lavora per convincerli che siano incapaci. Per restituire loro lo strumento già confezionato, già ottimizzato, già certificato, chiedendo solo che lo usino, lo firmino, se ne assumano la responsabilità senza averne la comprensione.
C’è una parola per questo. Espropriazione. Non di beni materiali. Di consapevolezza.
Due notizie in pochi giorni. Un collage di segnali che, letti insieme, indicano una direzione. Bisogna accorgersene prima che diventi l’unica possibile.