Go down

Cosa lega la guerra in Iraq all’odierno dibattito sull’intelligenza artificiale? Più di quanto sembri. Questo articolo esplora le analogie profonde tra il trauma decisionale post-11 settembre e le reazioni emergenziali che potrebbero accompagnare un futuro incidente legato all’AI. Sotto accusa non è solo la tecnologia, ma il nostro modo di reagire: parole vuote, governance impulsiva, efficienza senza pensiero. Attraverso uno sguardo critico e personale, il testo invita a riscoprire il valore del dubbio come forma di disobbedienza attiva. Con un riferimento chiave al libro The Stack di Benjamin Bratton.


Mi sono sorpreso, un giorno, a parlare con un collega e accorgermi che non stavo cercando di capire. Stavo cercando di avere ragione. Una leggera tensione nella voce, un tempo più veloce del necessario. Più che dialogare, stavo schermando. Come se ci fosse qualcosa da difendere. Ma cosa, esattamente?

Questa domanda, piccola e imbarazzante, è rimasta lì. L’ho portata con me mentre cercavo di ragionare su qualcosa di apparentemente distante: la guerra in Iraq. E invece, più ci pensavo, più mi sembrava che ci fosse un filo diretto, teso e invisibile, che univa quel conflitto con l’atmosfera che respiro ogni giorno nei progetti, nei team, nelle aziende, e soprattutto nel modo in cui parliamo oggi di intelligenza artificiale.

Nel 2003, gli Stati Uniti invasero l’Iraq per distruggere armi che non esistevano. Non fu un errore tecnico, ma una distorsione sistemica: una macchina politico-militare che aveva già deciso la meta e cercava soltanto una mappa che la confermasse. Lo spunto immediato fu l’11 settembre, ma la spinta veniva da prima: un gruppo di potere – ideologico, coeso, insicuro – che sognava di ridisegnare il mondo a propria immagine. Cercavano ordine nel caos. E finirono per moltiplicarlo.

Oggi parliamo di intelligenza artificiale con lo stesso sguardo febbrile. Ci sono scenari catastrofisti che sembrano scritti per giustificare decisioni già pronte. Moratorie che congelano l’innovazione, task force d’élite che promettono di governare il futuro senza rispondere al presente. Una narrativa emergenziale che si appoggia a un’allucinazione condivisa: l’idea che, per evitare il disastro, bisogna agire subito. Anche se non si sa come. Anche se non si sa cosa.

E allora succede come nei progetti: si parla di strategia, di visione, di responsabilità distribuita. Ma nessuno osa dire “non lo so”. Si pianifica come se si conoscesse la meta, si recita il metodo come un copione, si accelera per non perdere il treno. Ma non c’è nessuna stazione in vista. Solo il rumore del motore che gira.

Mi accorgo che le parole non servono più per pensare, ma per mostrarsi. Sono passaggi di una danza. Agile, delivery, ownership, strategic alignment. Ognuna suona bene, eppure nessuna dice davvero qualcosa. Un tempo avevano un senso. Ora sono maschere. E le maschere, lo sappiamo, non aiutano a vedere.

Il parallelo con l’Iraq non è un pretesto storico. È una struttura mentale. Anche lì si è agito “per sicurezza”, in assenza di prove, con l’idea che prevenire fosse meglio che attendere. Anche lì, il potere decisionale si è concentrato in poche mani, con un linguaggio granitico e l’illusione della coerenza. E anche lì, la realtà ha risposto con il caos. Perché la realtà non segue i piani, ma le conseguenze.

Ciò che inquieta non è l’errore. È la sua efficienza. Tutto funziona. I meeting iniziano in orario, le roadmap sono aggiornate, gli algoritmi performano. Ma manca il pensiero. Quello che non produce subito, che non si monetizza, che non consola. Eppure è l’unico che trasforma.

La vera posta in gioco nelle politiche sull’AI non è se riusciremo a regolamentare la tecnologia, ma se sapremo regolare il nostro desiderio di controllo. Se sapremo dire “non lo so” senza perdere autorevolezza. Se sapremo distinguere tra un problema reale e il bisogno di sentirci protetti. Se saremo capaci di agire senza fingere di sapere dove stiamo andando.

Il filosofo e teorico del design Benjamin H. Bratton, nel suo The Stack. On Software and Sovereignty, ha cercato di nominare l’architettura del nostro tempo: un nuovo sistema planetario, stratificato, in cui algoritmi, interfacce, cloud, territori e corpi convivono e si condizionano. Non è più lo Stato a decidere cosa conta. È lo stack – la pila computazionale – a definire spazi, flussi, abilitazioni. Il vero potere non si esercita dall’alto, ma si implementa nel protocollo. Per questo Bratton ci invita a immaginare forme nuove di sovranità, capaci di pensare non solo la minaccia, ma l’ecologia stessa della decisione.

Nel mondo dello stack, come nel deserto iracheno, la vera trappola è reagire a un fantasma con un dispositivo reale. Creare una governance dell’AI come si creano le guerre preventive: per gestire l’incertezza, non per comprenderla. Ma il pensiero non serve a rassicurare. Serve a disobbedire. A rallentare. A restituire complessità dove tutto spinge alla semplificazione.

Pensare, oggi, è un atto raro. Non serve per vincere, ma per non perdersi. E a volte basta poco: una domanda in più, un ascolto sincero, un attimo di sospensione prima di replicare. Sono piccoli gesti di disobbedienza che spezzano l’inerzia. Come chiedere, con tono neutro, cosa si intende davvero per “visione condivisa”. O come tacere, invece di commentare per forza.

La guerra in Iraq avrebbe potuto insegnarci che le decisioni più devastanti nascono quando smettiamo di dubitare. L’intelligenza artificiale potrebbe essere la prossima occasione per capirlo. Ma solo se avremo il coraggio di non cedere alla tentazione dell’efficienza. Di accettare la complessità. Di pensare, anche se non serve. Anche se fa male. Anche se, per un istante, ci fa sentire soli.


StultiferaBiblio

Pubblicato il 15 luglio 2025

Calogero (Kàlos) Bonasia

Calogero (Kàlos) Bonasia / omnia mea mecum porto