Go down

Il pericolo non è che l'IA diventi un dio. Il pericolo è che i leader, sfiniti dalle responsabilità, innalzino uno strumento e definiscano l'abdicazione innovazione.


Il primo errore della nostra era di ansia è grammaticale. Diciamo "l'IA pensa", "l'agente ha deciso", "il modello comprende". Il mondo degli affari adotta questo gergo perché lusinga le strategie di trasformazione. La politica lo adotta perché esternalizza le responsabilità. Gli esperti di sistemi complessi lo adottano perché "emergenza" fa sembrare la sorpresa un concetto ontologico. La macchina non ha ancora superato una soglia. Siamo caduti nella trappola di una nomenclatura sistematica errata.

L'IA non è un agente. Non ha corpo, non ha biografia, non è mortale, non ha debiti verso il futuro.

L'IA non è un agente. Non ha corpo, non ha biografia, non è mortale, non ha debiti verso il futuro. Non convive con i suoi risultati, non ne subisce le conseguenze, non perde la reputazione, né si pente. Ciò che chiamate "IA" è un pappagallo stocastico, una distribuzione di probabilità condizionata su sequenze di token. È addestrata sui resti simbolici dell'attività umana. Produce giudizi perché i giudizi hanno lasciato tracce. Imita la deliberazione perché la deliberazione ha uno stile. Risponde fluentemente perché le istituzioni hanno trasformato il pensiero in documenti, politiche, multe e discorsi.

Questo è potere. Non è agenzia.

Per i leader, la distinzione non è accademica. Trattare l'IA come un agente e la governance crolla. La responsabilità si sposta su uno strumento che non può rispondere. La strategia diventa ventriloquismo. "Il sistema raccomandato" diventa un alibi. Le aziende la chiamano autonomia quando in realtà intendono burocrazia accelerata. I governi la chiamano intelligenza quando in realtà intendono amministrazione probabilistica. È responsabilità umana ripulita attraverso un substrato artificiale che nessuno è costretto ad assumere.

L'"intelligenza" non è una salvezza. L'intelligenza presuppone un portatore di fini. Il substrato non ne ha. Ha funzioni oggettive, tracce di ricompensa, barriere, classifiche, temperatura, promemoria, politiche, non scopi. I fini appartengono a esseri vulnerabili e alle loro istituzioni. Un modello può ottimizzare il linguaggio attorno a un valore; non può essere vincolato da quel valore. Può simulare la prudenza; non può essere saggio. Può imitare la coscienza; non può essere colpevole.

La categoria corretta è infrastruttura: substrato simbolico, non collega sintetico. Una protesi di struttura, come lo era la macchina da stampa. Consideratela come un compilatore, un database, un segnale di mercato, un registro giudiziario, una rete logistica: potente, parziale, strutturante, corruttibile, mai sovrana. Condiziona l'azione, non la crea. Espande la struttura, non sostituisce l'azione individuale. I suoi risultati meritano un controllo, non deferenza. La sua fluidità merita sospetto, non timore reverenziale.

Il pericolo non è che l'IA diventi un dio. Il pericolo è che i leader, sfiniti dalle responsabilità, innalzino uno strumento e definiscano l'abdicazione innovazione. La sostituzione è pneumatologia tecnologica: la consacrazione di un'ideologia non redenta come mediazione redentrice. Darle un nome corretto è il primo atto per usarla bene. L'IA è il substrato. Manteniamola lì.


English Original Version

AI IS ONLY “SUBSTRATE”

The first error of our era of anxiety is grammatical. We say “AI thinks”, “the agent decided”, “the model understands”. Business adopts the jargon because it flatters transformation decks. Politics adopts it because it outsources responsibility. Complex-systems people adopt it because “emergence” makes surprise sound like ontology. The machine has not crossed a threshold. We have into systematic misnaming.

AI is not an agent. It has no body, no biography, no mortality, no debt to tomorrow. It does not live with its outputs, suffer their consequences, lose a reputation, or repent. The thing you call "the AI" is a stochastic parrot, a conditional probability distribution over token sequences. It is trained on the symbolic remains of human activity. It produces judgement-form because judgement left traces. It imitates deliberation because deliberation has a style. It answers fluently because institutions converted thought into documents, policies, tickets and speeches.

That is power. It is not agency.

For leaders, the distinction is not academic. Treat AI as agent and governance collapses. Accountability shifts onto a tool that cannot answer. Strategy becomes ventriloquism. “The system recommended” becomes the alibi. Firms call it autonomy when they mean accelerated bureaucracy. Governments call it intelligence when they mean probabilistic administration. It is human responsibility laundered through an artificial substrate no one is forced to own.

“Intelligence” is no rescue. Intelligence presupposes a bearer of ends. The substrate has none. It has objective functions, reward traces, guardrails, rankings, temperature, prompts, policies — not purposes. Ends belong to vulnerable beings and their institutions. A model may optimise language around a value; it cannot be bound by the value. It can simulate prudence; it cannot be wise. It can mimic conscience; it cannot be guilty.

The right category is infrastructure: symbolic substrate, not synthetic colleague. A prosthesis of structure, the way the printing press was. Treat it as compiler, database, market signal, court record, logistics network: powerful, partial, structuring, corruptible, never sovereign. It conditions action; it does not author it. It expands structure; it does not replace agency. Its outputs deserve audit, not deference. Its fluency deserves suspicion, not awe.

The danger is not that AI will become a god. The danger is that leaders exhausted by responsibility, will enthrone an instrument and call abdication innovation. The substitution is technological pneumatology: consecration of unredeemed ideology as redemptive mediation. Naming it correctly is the first act of using it well. AI is substrate. Keep it there.

Pubblicato il 30 aprile 2026

Otti Vogt

Otti Vogt / Leadership for Good | Host Leaders For Humanity & Business For Humanity | Good Organisations Lab

http://www.goodorganisations.com