Per molto tempo la responsabilità è stata una cosa sorprendentemente semplice.
Se un sistema falliva, si poteva risalire a una persona: chi aveva progettato, chi aveva implementato, chi aveva deciso. Anche quando gli errori erano complessi, il principio restava chiaro: qualcuno aveva fatto una scelta, e quella scelta aveva prodotto conseguenze.
Con l’Intelligenza Artificiale questo legame non si è spezzato di colpo, ma si sta lentamente sfibrando.
Non perché le macchine decidano davvero da sole, ma perché il lavoro umano viene oggi distribuito lungo catene sempre più frammentate: modelli, dataset, pipeline, interfacce, dashboard, approvazioni. Il risultato è un ecosistema in cui molti partecipano, ma nessuno sente di possedere davvero l’atto finale.
Il modello suggerisce.
L’operatore approva.
Il sistema esegue.
Il manager monitora.
E quando qualcosa va storto, la responsabilità evapora.
Questa è forse la trasformazione più sottile introdotta dall’AI: non l’automazione delle decisioni, ma l’automazione della loro diluizione.
L’errore non sparisce; semplicemente smette di appartenere a qualcuno.
Nelle organizzazioni prende forma una nuova formula rituale: «Lo ha suggerito il sistema.»
Non è una spiegazione tecnica. È una strategia psicologica. Serve a proteggere l’identità decisionale di chi agisce in un ambiente sempre più opaco.
L’AI diventa così un cuscinetto cognitivo.
Se l’esito è positivo, il merito è umano.
Se è negativo, l’algoritmo diventa il capro espiatorio.
Ma un algoritmo non prova esitazione.
Non prova paura.
Non firma nulla.
E una decisione che nessuno firma non è davvero una decisione: è una stima operativa che attraversa una macchina.
Il rischio più grande non è che l’AI sbagli.
È che, quando sbaglia, non siamo più in grado di dire con precisione dove finisce il modello e dove comincia l’umano.
Il futuro del lavoro non sarà una guerra tra persone e macchine.
Sarà una lotta più silenziosa e più radicale: quella per poter ancora dire, senza ambiguità, “questa scelta è mia.”