Viviamo in un’epoca in cui si confonde la novità con il progresso. Tutti parlano di auto elettriche, di “mobilità sostenibile”, di un futuro pulito. Ma pochi si chiedono da dove venga quell’elettricità che ricarica le batterie. Da una centrale a carbone? Da un impianto nucleare? E quando il parco batterie sarà esausto, dove finiranno tonnellate di litio e cobalto? Nessuno lo sa, e soprattutto nessuno vuole chiederselo. È la stupidità governata dal marketing: basta un’etichetta “green” o “AI-powered” perché ogni riflessione critica evapori.
abbiamo smarrito il senso della misura
Qualcosa di simile è accaduto all’informatica. Un tempo, in poche decine di kilobyte "giravano" sistemi operativi completi: gestivano periferiche, calcoli e persino missioni spaziali. Secondo certa storiografia anglo-americana, con programmi di quelle dimensioni si sarebbe perfino arrivati sulla Luna. Oggi, invece, servono decine di gigabyte solo per avviare un computer che — a conti fatti — fa le stesse identiche cose: scrivere, calcolare, comunicare. È un paradosso tecnico ma anche cognitivo: abbiamo moltiplicato le risorse per ottenere la stessa funzionalità, e nel processo abbiamo smarrito il senso della misura.
E non basta portare la borraccia di alluminio nello zaino per credere di contribuire ad un pianeta "più green", se poi il tuo smartwatch consuma più energia di un paese di diecimila abitanti solo per dirti a che ora parte il treno. Quell’orologio non è “intelligente”: è il terminale di una rete di data center che brucia megawatt per offrirti qualche notifica e un grafico dei battiti cardiaci. La sua intelligenza, come quella di molti sistemi digitali contemporanei, si regge su una montagna di energia e di server invisibili, che consumano infinitamente più di quanto restituiscano in valore reale.
Ecco il filo che unisce batterie, sistemi operativi e intelligenza artificiale: la crescita quantitativa scambiata per progresso qualitativo. Ogni nuova interfaccia promette efficienza, ma in realtà aggiunge strati di opacità tra noi e ciò che vogliamo fare. E più ci affidiamo a questi strumenti, più il mondo che pretendono di “ottimizzare” diventa fragile, energivoro e inefficiente.
La promessa è sempre la stessa: automatizza, delega, risparmia tempo. Ma la realtà smentisce ogni slogan. L’ora risparmiata nello scrivere viene divorata nella correzione. Chi ha provato seriamente a usare un LLM lo sa: basta chiedere un riassunto ben scritto, o un testo “stile Calvino”, per ricevere in cambio frasi legnose, concetti spostati, citazioni inventate.
E allora comincia il lavoro vero: correggere, verificare, riscrivere. Alla fine ci si ritrova ad aver fatto il proprio lavoro e quello della macchina. Il paradosso è evidente: lo strumento che doveva liberarti ti intrappola in una catena di micro-errori da sistemare.
E anche ammesso che davvero risparmiassimo tempo, per farne cosa? Non certo per pensare, leggere o vivere meglio. Il tempo liberato non ritorna mai all’uomo: viene risucchiato dal sistema stesso che ce lo aveva “regalato”. Ogni minuto sottratto alla fatica diventa un minuto reinvestito nella macchina della produttività. È il paradosso moderno: risparmiamo tempo per poter lavorare di più, comunicare di più, produrre di più — e alla fine ci accorgiamo che non abbiamo più tempo per esistere.
Ed è qui che si manifesta il cuore della cultura dello spreco: non solo di risorse, ma di vita, di attenzione, di pensiero. Una mentalità — radicata nel mito anglo-americano dell’efficienza e della crescita infinita — che ha colonizzato ogni ambito del nostro immaginario, trasformando il tempo in merce e l’uomo in operatore del proprio consumo. È una visione che non conduce a un futuro di democrazia e prosperità, ma a una distopia fatta di distruzione di massa, guerre e fame, dove la competizione economica divora la possibilità stessa di una civiltà sostenibile.
le macchine non risparmiano il nostro tempo, estraggono tempo
Non è un fallimento tecnico, ma epistemico. Queste macchine non risparmiano tempo: estraggono tempo. Sono progettate per sembrare intelligenti, non per esserlo. Il loro valore commerciale cresce con il nostro tempo di utilizzo, non con la qualità del risultato. È la stessa logica delle piattaforme sociali: la macchina non mira all’efficienza, ma alla dipendenza. Così, mentre crediamo di delegare, in realtà stiamo solo moltiplicando il nostro lavoro.
Il vero problema non è l’errore, ma la sicurezza con cui l’errore viene enunciato. Un umano può dire “non lo so”. Una macchina no. Quando un LLM non conosce la risposta, la inventa, ma con tono assertivo. È questa la patologia della certezza: un linguaggio che non ammette il dubbio, e perciò anestetizza la nostra vigilanza critica.
Il linguaggio è da sempre il veicolo del pensiero razionale. Oggi viene colonizzato da algoritmi che imitano la forma del discorso senza condividerne la sostanza. Gli LLM non pensano: prevedono. Non comprendono: somigliano. Producono senso apparente, non conoscenza.
Il loro potere deriva dalla nostra fiducia nel linguaggio: siamo portati a credere che un testo coerente implichi una mente coerente dietro di sé. Ma qui la mente non c’è. C’è solo un calcolo di probabilità. Il risultato è una nuova forma di bullshit algoritmico: parole ordinate che non dicono nulla, frasi fluide che non sono "vero pensiero". E noi, di fronte a quella fluidità, smettiamo di interrogarci. Diventiamo i revisori di un discorso che ci usa. Siamo editor di una mente inesistente, e lo chiamiamo progresso.
Negli ultimi anni si è diffusa un’idea tanto seducente quanto tossica: quella del “secondo cervello”. Archiviare, salvare, automatizzare. Come se la conoscenza fosse una questione di spazio di memoria. Ma un archivio, per quanto vasto, non pensa.
Gli LLM amplificano questo equivoco alla perfezione: imitano la comprensione, ma non comprendono nulla. Predicono la parola successiva, ma non ne conoscono il senso. Sono macchine della ricombinazione, non della riflessione. Eppure li usiamo come se fossero estensioni del nostro intelletto, convinti che accumulare testi equivalga a pensare di più.
Ma pensare non è archiviare. È scegliere. Significa saper distinguere ciò che merita attenzione da ciò che può essere scartato. Gli LLM confondono tutto: forma e sostanza, dato e significato, verità e probabilità.
Non abbiamo bisogno di un secondo cervello, ma di un primo scalpello: strumenti che affilino la nostra capacità di discernere, non che ci illudano di pensare al posto nostro. La vera intelligenza non è la quantità di dati, ma la qualità del giudizio.
Dietro ogni tecnologia che promette “automazione” si nasconde un’ideologia: quella della delega come virtù. Si vuole convincerci che il progresso consista nel non fare, nel lasciare che altri — umani o algoritmi — agiscano per noi. Günther Anders lo aveva intuito già nel Novecento: la tecnica non supera l’uomo in intelligenza, ma in irresponsabilità. La macchina non conosce la colpa. Oggi, con l’IA, questa irresponsabilità si è estesa al linguaggio stesso: parliamo senza sapere, produciamo senza comprendere, condividiamo senza verificare.
Gli LLM sono dispositivi ideologici, non solo tecnologici. Normalizzano il pensiero approssimativo e lo rendono socialmente accettabile. Ci dicono che “va bene così”, che “basta che sembri giusto”. È il trionfo del verosimile sul vero, del plausibile sul reale. Paghiamo, letteralmente, per pensare di pensare.
Un contributo rilevante alla comprensione di questi processi lo troviamo in Coscienza e AI (POV #01) di Carlo Augusto Bachschmidt, dove l’autore mostra come la questione dell’intelligenza artificiale sia inseparabile da quella della coscienza. Richiamando Federico Faggin e Riccardo Manzotti, Bachschmidt distingue tra la coscienza quantistica e biologica, non replicabile in una macchina, e la coscienza relazionale, radicata nell’esperienza incarnata. Entrambe le prospettive convergono nel negare che la mente sia un software trasferibile: l’IA, per quanto sofisticata, resta una simulazione del pensiero, non un suo prolungamento.
A questa riflessione si collega Ansia da Prompt di David M. Berry, che analizza come la cultura del “prompt engineering” abbia trasformato il lavoro cognitivo in un esercizio di controllo e dipendenza. Berry mostra come l’interazione con gli LLM produca una nuova forma di ansia epistemica: il desiderio di ottenere il risultato “giusto” si intreccia con l’imprevedibilità del sistema, generando una tensione costante tra speranza e impotenza, tra la promessa di potere e la realtà del servilismo digitale. Il prompt diventa così una scommessa contro la macchina, un gesto di fede travestito da competenza.
Infine, nel saggio Quando il ghostwriter sei tu. Scrivere con i LLM di Martino Pirella, si esplora la dissoluzione del confine tra autore e macchina. Pirella osserva che «ad un certo punto non capisco più se sto scrivendo o mi sto facendo scrivere»: è il momento in cui l’uomo diventa ghostwriter del sistema stesso, cedendo la propria voce al dispositivo che la replica. In questa simbiosi linguistica, la creatività non viene potenziata ma assorbita: il soggetto non si serve più della tecnologia, ne diventa materiale linguistico.
L’analisi di Bachschmidt, Berry e Pirella ci ricorda che la questione non è solo tecnica. È ontologica ed epistemica: riguarda il modo in cui conosciamo, comunichiamo e affidiamo fiducia a una voce che non ha corpo né esperienza. Rompere l’aura di presenza della macchina — come invita a fare Stultifera Navis — significa restituire complessità al pensiero umano, rifiutando l’illusione della continuità perfetta tra linguaggio e verità.Gli LLM non rappresentano il futuro della conoscenza, ma il sintomo del nostro presente: un’epoca che confonde la velocità con la verità, la plausibilità con la comprensione, l’automazione con l’intelligenza.
La vera rivoluzione non sarà un nuovo modello, ma un nuovo atteggiamento: rifiutarsi di automatizzare ciò che richiede comprensione. La conoscenza non si genera: si costruisce. E nessun algoritmo può sostituire la pazienza di chi sceglie di capire invece di produrre. Forse il gesto più sovversivo, oggi, è questo: smettere di pagare per lavorare di più. Tornare a fidarsi della lentezza, della mente e della penna. Perché la vera intelligenza — artificiale o umana — non è nel produrre più testo, ma nel sapere quando tacere per capire meglio.