Go down

Perché penso che con l'IA, non siano i cinesi a venirci in aiuto, ma i russi?


Čechov aveva una regola: se nel primo atto c'è un fucile appeso al muro, nel terzo atto deve sparare. Non è un consiglio drammaturgico. È una legge fisica della narrazione: la presenza di un oggetto ne determina l'uso. Il fucile non sta lì per arredamento. Sta lì perché esiste, e tutto ciò che esiste in scena finisce per essere usato.

L'intelligenza artificiale è il fucile di Čechov del nostro tempo.

Se entra in una tasca, prima o poi la userai. Se entra in un cellulare, l'accenderai. Se entra negli applicativi, vi accederai. Se entra in un ufficio, l'applicherai. Non per scelta ideologica, non per visione strategica, non perché qualcuno l'ha deciso in un comitato. Per il semplice fatto che è lì, sul muro, carica.

Čechov non conosceva Thanos, ma conosceva Ananke. La necessità. I Greci sapevano che Ananke non è una forza che spinge: è una forza che attrae. Non ti obbliga, ti rende inevitabile. E sapevano anche che la necessità ha uno stretto rapporto di parentela con il tempo: non è questione di se, è questione di quando. Il fucile non spara perché qualcuno preme il grilletto. Spara perché è nel terzo atto. E noi siamo nel terzo atto.

Ma c'è un altro russo, e dice la cosa opposta.

Tolstoj apre Anna Karenina con una delle frasi più citate e meno capite della letteratura: "Tutte le famiglie felici si assomigliano; ogni famiglia infelice è infelice a modo suo."

Applicata all'intelligenza artificiale, la frase è chirurgica. I casi riusciti si assomigliano tutti. Li sbandieriamo ogni settimana: nuova feature, nuova implementazione, nuova partnership, nuova slide con la freccia che sale. Le aziende che "ce l'hanno fatta" raccontano tutte la stessa storia, con le stesse parole, gli stessi KPI verdi, lo stesso entusiasmo da keynote. Sono famiglie felici. Si assomigliano. Non c'è molto da imparare. Hanno anche i press kit.

Sono gli errori che differiscono. Le impasse. Le applicazioni sbagliate. Il chatbot che ha risposto al cliente con i dati di un altro cliente. Il sistema di scoring che ha penalizzato un intero quartiere. Il report automatico che nessuno ha riletto e che è finito in consiglio di amministrazione con un numero inventato. L'algoritmo di selezione del personale che ha scartato tutti i candidati sopra i cinquant'anni.

Ogni fallimento dell'IA è infelice a modo suo.

E ogni fallimento assomiglia a un'incisione di Goya. I mostri non arrivano quando qualcuno ha deciso di fare del male. Arrivano quando la ragione si assopisce. Quando il sistema gira e nessuno sta guardando. Quando la delega diventa così completa da trasformarsi, senza cerimonie, in abbandono.

E questa è la parte interessante. Quella che vale la pena raccontare. Non perché il fallimento sia più nobile del successo, quello lo lasciamo ai failure enthusiast, ma perché il successo conferma e il fallimento rivela. Il successo ti dice che il fucile ha sparato nel punto giusto. Il fallimento ti mostra dove stava puntato quando non guardavi.

dobbiamo tornare a leggere i classici, anche per capire l'IA

Per questo dobbiamo tornare a leggere i classici. Čechov sapeva che il fucile spara. Tolstoj sapeva che le infelicità sono tutte diverse. Goya sapeva cosa produce il sonno della ragione. Lo sappiamo anche noi. Lo sappiamo benissimo, specie quelli che frequentano la Stultifera Navis. Il problema è che lo stiamo ricordando adesso, mentre il sistema è già in produzione e la ragione sta già facendo i suoi sogni tranquilli in una camera di consiglio o in un open space da qualche parte.

Pubblicato il 26 marzo 2026

Bernardo Lecci

Bernardo Lecci / Digital Transformation & Strategy Director, AI Advisor | Marketing Innovation, Change Management & Brand Evolution