Go down

L’intelligenza artificiale rende il vuoto (di senso) scalabile, riproducibile, industriale.
Accelerando la produzione di contenuti formalmente corretti ma spesso privi di direzione, l’AI rischia di saturare l’attenzione e indebolire la capacità di distinguere ciò che conta davvero.
Una riflessione sull’illusione della produttività infinita e sul valore, sempre più raro, dell’attrito cognitivo.


C’è una promessa silenziosa dietro ogni strumento di intelligenza artificiale: farci produrre di più, più velocemente. Ma produrre di più non significa produrre senso.

Documenti generati in pochi minuti, slide impeccabili, testi ben scritti, coerenti e formalmente corretti sembrano farci credere che tutto funzioni e tutto scorra. Eppure, sotto questa efficienza quasi ipnotica, resta la sensazione di non aver davvero detto nulla.

Non è propriamente un problema dell’AI, penso sia qualcosa di più sottile. L’intelligenza artificiale non crea il vuoto e non introduce dal nulla la mancanza di idee o di senso. Quel vuoto esisteva già, molto prima dei modelli generativi. Esiste ogni volta che lavoriamo senza una domanda chiara, ogni volta che produciamo per abitudine, ogni volta che riempiamo uno spazio solo perché è lì.

Fino a poco tempo fa, quel vuoto aveva un costo. Richiedeva tempo, energia, persone che scrivessero, parlassero, producessero. C’era fatica, c’era attrito, c’era almeno la possibilità che qualcuno si fermasse a chiedersi se ne valesse davvero la pena. L’inefficienza, paradossalmente, funzionava da freno.

Con l’AI questo freno scompare. La mancanza di senso viene accelerata. Un contenuto senza una vera idea centrale può essere generato in pochi secondi, in forma impeccabile, coerente, persino elegante. Il vuoto diventa scalabile nel senso che così è riproducibile o moltiplicabile esattamente com un modello industriale. L’AI non può distinguere ciò che conta da ciò che semplicemente suona bene. Abbiamo introdotto un rischio che prima non esisteva, produrre contenuti medi in quantità tale da saturare l’attenzione e rendere sempre più difficile riconoscere ciò che merita davvero il nostro impegno, qualcosa che possa portare un vero valore.

In qualche modo ci siamo convinti che se produci di più, stai facendo meglio e se consegni prima, sei più efficiente e competitivo. L’intelligenza artificiale si inserisce perfettamente in questa narrazione, come il moltiplicatore definitivo. Forse uno degli equivoci più grandi di questi giorni, l’aumento dell’output non coincide automaticamente con l’aumento del significato.

Abbiamo introdotto inoltre il concetto di “dovere morale” nel produrre un qualcosa, tanto con l’AI è facile (almeno questo è quello che ci diciamo) quindi se posso generare dieci alternative invece di una, perché fermarmi alla prima? Se posso rispondere subito, perché prendermi tempo? Se posso riempire lo spazio, perché lasciarlo vuoto?

Ci stiamo abituando a un ambiente in cui il rumore è efficiente, in cui il mediocre è ben confezionato e in cui la coerenza formale viene scambiata per profondità. Come detto prima l’intelligenza artificiale non distingue ciò che è rilevante da ciò che è solo plausibile. Mette insieme ciò che trova e lo trucca per farcelo apparire bello ma se il contesto è povero, l’output sarà povero, certo, sarà anche rapido, elegante e convincente.

In questo scenario, stiamo perdendo qualcosa di essenziale: l’attrito. L’attrito cognitivo è ciò che ci costringe a scegliere, a rallentare, a scartare. È la fatica che filtra. È il tempo che permette alle idee di sedimentare. È l’imbarazzo del non sapere ancora cosa dire.

Senza attrito, tutto sembra urgente. Ma nulla diventa davvero importante.

L’AI riduce l’attrito in modo drastico e questo è, allo stesso tempo, il suo più grande valore e il suo più grande rischio. Perché un mondo senza attrito è un mondo in cui la selezione scompare. E quando tutto passa, nulla resta.

Non sto suggerendo di rinunciare agli strumenti. Sarebbe ingenuo e sterile. L’intelligenza artificiale è uno strumento straordinario, capace di liberare tempo, energie, possibilità. Ma solo a una condizione: che qualcuno, dall’altra parte, si assuma la responsabilità del senso.

La misura non è quanto produciamo. È quanto di ciò che produciamo merita di rimanere.

Forse il problema non è che l’AI accelera troppo. Forse è che non sappiamo più dove stiamo andando. E quando la direzione manca, ogni accelerazione diventa solo un modo più veloce per perdersi.


Pubblicato il 06 febbraio 2026

Gianluca Garofalo

Gianluca Garofalo / Automazione Strategica | Architetture SW | GenAI, Etica e Innovazione | @ENIA