Go down

L'IA non è il futuro, è un furto mascherato da innovazione. Il capitale finanziario sta privatizzando la nostra conoscenza pubblica. È un colpo di stato silenzioso, legale sulla carta, disumano nella sostanza. Consapevolezza critica o schiavitù algoritmica? Ora tocca a te scegliere.


Introduzione: Il Colpo di Stato Silenzioso

Viviamo in un momento di transizione cruciale, anche se pochi l'hanno ancora capito davvero. Non è una transizione tecnologica ordinaria, quella verso l'intelligenza artificiale. È un colpo di stato. Silenzioso, insidioso, legale sulla carta, ma fondamentalmente disonesto nella sostanza.

Permettimi di essere diretto, come piace a me: il capitale finanziario sta tentando di appropriarsi della conoscenza umana, di privatizzarla, di convertirla in profitto. E lo sta facendo usando un'arma sofisticata che pochi comprendono veramente: l'intelligenza artificiale.

Ma non è questione di tecnologia. È questione di potere.

Cosa Sta Succedendo Davvero?

Leggiamo gli articoli sulla rivoluzione dell'IA. Sentiamo parlare di "democratizzazione della conoscenza", di "innovazione che cambierà il mondo", di "progresso inevitabile". È tutto bellissimo sulla carta.

La realtà è diversa.

Quello che sta accadendo è un processo antico con un nuovo travestimento: l'enclosure. Sì, proprio come i nobili inglesi del Seicento che recintavano i terreni comuni e li trasformavano in proprietà privata, scacciando i contadini. Oggi stanno facciando la stessa cosa con qualcosa di ancora più prezioso: la conoscenza.

La conoscenza era commons, era nostra. Era basata su principi oggettivi, su una realtà condivisa che tutti potevamo scrutare e contestare. Ora il capitale finanziario vuole trasformarla in proprietà privata, attraverso un meccanismo furbo: algoritmi e probabilità statistica.

Il Grande Inganno: L'IA Non È Conoscenza, È Opinione

Ecco il primo concetto critico che devi comprendere: quello che l'IA produce non è conoscenza, è probabilità statistica elaborata sulla base di dati selezionati secondo preferenze soggettive.

Pensiamo per un momento a cosa significava conoscenza prima. La scienza aveva un fondamento esterno, una realtà oggettiva che potevi verificare. Due scienziati diversi, con metodi corretti, dovevano arrivare alle stesse conclusioni. Quella era la bellezza della conoscenza condivisa.

L'IA cambia il gioco radicalmente: un algoritmo prende dei dati, che sono stati raccolti e selezionati da qualcuno secondo sue scelte soggettive, e produce pattern probabilistici. Questi pattern non rappresentano la realtà. Rappresentano quello che il modello ha imparato dai dati che qualcuno ha deciso di includervi.

È soggettivo,è privato e soprattutto, non ha alcun fondamento esterno che lo validi.

Eppure, viene spacciato come oggettivo, come scientifico, come inevitabile.

Perché il Capitale Finanziario Ha Bisogno dell'IA

Qui veniamo al cuore della questione. Il capitale finanziario non ha inventato l'IA perché rappresenta una vera rivoluzione tecnologica nel senso tradizionale. L'ha abbracciata perché rappresenta un'opportunità di profitto senza precedenti.

Pensa alle rivoluzioni tecnologiche del passato. La macchina a vapore era veramente rivoluzionaria, perché abbassava i costi di trasporto e produzione per tutti. Era una tecnologia con alta generalizzabilità: potevi usarla in mille contesti diversi, e il beneficio era misurabile e universale.

L'IA non è così.

L'IA è uno strumento per creare pattern da da e questi pattern possono essere utili o inutili a seconda di come li interpreti. E soprattutto, non rivoluziona nulla in modo universale e misurabile. Non abbassa i costi, anzi, li aumenta, perché comporta lavoro gigantesco per interpretare e verificare i risultati.

Allora perché il capitale finanziario sta investendo trilioni? Perché ha capito una cosa: se riesce a convincere il mondo che l'IA è il futuro inevitabile, può poi controllare questo futuro. E controllando il futuro, controlla la conoscenza, e controllando la conoscenza, controlla il potere.

È un meccanismo di "lock-in", di dipendenza da sentiero. Una volta che avrai investito abbastanza denaro in qualcosa, sarà difficilissimo fermarlo, anche se non funziona, anche se è dannoso. Perché ci sono troppi interessi acquisiti.

L'Enclosure della Conoscenza: Come Roba Pubblica Diventa Privata

Lasciami spiegare il meccanismo con un esempio concreto.

La conoscenza accumulata dall'umanità, quella che pubblichiamo su giornali, su YouTube, nei forum, nei database pubblici, nei corsi online, è roba pubblica. È stata creata con fondi pubblici (ricerca universitaria), è stata condivisa pubblicamente (con la speranza di contribuire al bene comune), ed è stata costruita sulle spalle di generazioni di pensatori pubblici.

Ora, il capitale finanziario dice: "Vi piacerebbe che l'IA capisse meglio i vostri video, i vostri articoli? Fantastico! Vi diamo accesso a questa tecnologia meravigliosa!" E intanto, prende tutti i vostri contenuti pubblici, li alimenta agli algoritmi, e crea modelli privati proprietari che possono poi essere venduti, monetizzati, controllati.

La tua conoscenza pubblica diventa proprietà privata di qualcun altro.

E la cosa davvero astuta? Non te l'ha rubata nel senso tradizionale. Tecnicamente rispetta i termini di servizio (quelli che nessuno legge). Tecnicamente è tutto legale. Ma sostanzialmente è un furto mascherato da innovazione.

L'Anti-Democrazia Insita nell'IA

Ora arriviamo al punto che davvero mi fa infuriare: l'IA è profondamente, irreducibilmente anti-democratica.

Non è un'opinione. È una realtà strutturale.

Sappi che la democrazia non significa solo votar ma anche prendere decisioni insieme, in modo consapevole, basandosi su informazioni che tutti possiamo comprendere e contestare.

Di fatto l'IA fa l'esatto opposto. Ti presenta risultati come fossero neutrali, oggettivi, scientific, ma questi ultimi sono il frutto di scelte soggettive fatte da chi ha programmato l'algoritmo, chi ha selezionato i dati, chi ha definito gli obiettivi. Scelte che tu non puoi contestare perché non le capisci, e spesso nemmeno il creatore le capisci appieno, grazie ai meccanismi di deep learning.

È un'asimmetria di potere enorme. Qualcuno decide quali dati usare, quale realtà rappresentare negli algoritmi, quali risultati ottimizzare. E poi ti presenta tutto come se fosse oggettivo.

Questo non è democrazi bensì è il contrario assoluto della democrazia.

E il bello è che molti critici dell'IA, anche quelli "di sinistra", stanno cadendo nella trappola. Dicono: "Sì, l'IA è problematica, ma se la sottoponiamo a controllo democratico, se la rendiamo trasparente, allora va bene".

No. È come dire: "Il meccanismo di controllo del dittatore è problematico, ma se lo democratizziamo, allora va bene che un dittatore decida per tutti". Non è possibile democratizzare l'uso di uno strumento che è anti-democratico per sua natura.

Tengo a sottolineare che l''IA concentra il potere decisionale in poche mani , non lo distribuisce, non lo democratizza ma lo centralizza e lo maschera.

La Razionalità Strumentale Contro l'Umanità

C'è un aspetto ancora più profondo di cui voglio parlarti, perché è davvero il nucleo della questione.

Esiste una differenza cruciale tra due tipi di razionalità: la razionalità dei valori e la razionalità strumentale.

La razionalità dei valori è quando diciamo: "Vogliamo vivere in pace, in comunità, con dignità. Quali sono i mezzi (strumenti, politiche, tecnologie) che servono a questi fini?" I fini sono chiari, indipendenti dai mezzi. Inoltre i mezzi sono al servizio dei fini.

La razionalità strumentale è quando confondiamo i mezzi con i fini. Quando diciamo: "L'efficienza è il fine, tutto il resto è dettaglio". Oppure: "Se il computer dice così, deve essere giusto". In beata sostanza i mezzi diventano i fini.

L'IA è l'incarnazione massima della razionalità strumentale. Non chiede mai "a servizio di chi" o "per quale valore umano". Chiede solo "come ottimizzare il flusso di dati e come rendere il sistema più efficiente".

E noi, umani, diventiamo allora semplici dati da ottimizzare, non persone da valorizzare.

Quando un algoritmo decide che sei un rischio in termini di credito perché corrisponde a certi pattern statistici, sta usando la razionalità strumentale in cui da un lato questo minimizza le perdite finanziarie del banca  ma dall'altro sta trattando te non come persona con valori e dignità, ma come numero da classificare e scartare.

Questo è profondamente disumano. E non riuscirà a essere "democratizzato" o "reso etico": è insito nella logica dell'IA stessa.

La Domanda che Dovremmo Tutti Porci

Permettimi di essere provocatorio. La domanda non è: "Come possiamo controllare meglio l'IA?"

La domanda è: "Perché dovremmo accettare che qualcuno, in nome dell'efficienza tecnologica, decida per noi?"

Perché dovremmo permettere che il nostro corpo, la nostra mente, la nostra creatività vengano ridotti a dati da alimentare ad algoritmi costruiti da altri, per scopi che non abbiamo scelto, e che non possiamo nemmeno comprendere pienamente?

Non è una questione di "bilanciare i rischi e i benefici". È una questione di principio umano fondamentale.

Vogliamo un futuro dove siamo partner consapevoli nella decisione su come la tecnologia viene usata, oppure vogliamo stare a guardare mentre qualcuno riscrive le regole del nostro mondo senza chiederci il permesso?

Perché, ecco il fatto: il permesso non ce l'ha chiesto. E nemmeno lo chiederà. Perché a quel punto potremmo dire di no. E lui non può permettersi un "no".

Conclusione: Il Momento delle Scelte

Siamo a un crocevia e bada bene non è una metafora.

Da una parte, c'è la strada dell'accettazione passiva. Quella dove diciamo: "L'IA è inevitabile, è il futuro, tanto vale abituarsi". Quella strada porta a una società dove il nostro sapere, la nostra creatività, la nostra autonomia decisionale vengono lentamente assorbiti e controllati da macchine progettate da chi ha il denaro e il potere di programmarle.

Dall'altra parte, c'è la strada della resistenza consapevole. Non la resistenza irrazionale contro la tecnologia. Ma la resistenza razionale e umana contro l'appropriazione della nostra conoscenza, della nostra democrazia, della nostra dignità.

Questa strada richiede coraggio. Richiede di dire "no" quando tutti intorno dicono "sì". Richiede di comprendere cosa sta succedendo davvero, al di là della narrativa ufficiale.

Ma è l'unica strada che preserva quello che abbiamo di più prezioso: il diritto di essere umani, di pensare liberamente, di decidere insieme il nostro futuro.

Non so quale strada prenderai. So solo che il momento per scegliere è adesso. Perché tra poco il lock-in sarà completo, e le scelte si restringeranno.

Fai la tua mossa. Consapevolmente.


Pubblicato il 29 novembre 2025

Franco Bagaglia

Franco Bagaglia / Docente Universitario. Umanesimo Digitale. Specialista formazione e sviluppo AI e competenze digitali presso Acsi Associazione Di Cultura Sport E Tempo Libero

https://umanesimodigitale.info