Go down

AI e modernità liquida

Come leggere l’intelligenza artificiale attraverso le categorie della modernità liquida di Zygmunt Bauman?
Zygmunt Bauman (1925–2017), sociologo e filosofo polacco, è stato uno degli osservatori più acuti delle trasformazioni della società contemporanea. Con concetti divenuti ormai parte del nostro vocabolario ha descritto un mondo in cui tutto si fa instabile, fluido, provvisorio: relazioni, lavoro, valori, identità, persino la memoria collettiva.
La sua opera, che attraversa oltre mezzo secolo di analisi critica, ha indagato gli effetti della globalizzazione, la precarietà esistenziale, il trionfo del consumo e l’erosione dei legami comunitari sotto la pressione di un mercato che trasforma persone e sentimenti in beni circolanti.
In questa intervista impossibile, Bauman riflette su come l’intelligenza artificiale sia uno specchio della nostra epoca, un sintomo delle fragilità che abbiamo creato, delle paure che non sappiamo (vogliamo) nominare, e delle responsabilità che spesso preferiamo delegare alle macchine.
Se la modernità liquida ha dissolto punti di riferimento e confini, che cosa rivela l’AI di noi, oggi? Da dove partire per comprenderla? Dalla tecnica o dalla nostra condizione umana?


1. Modernità liquida

CAB: Professor Bauman, nella sua opera lei ha descritto la modernità come un passaggio dallo “stato solido” della società industriale a una “modernità liquida”, fatta di legami instabili, identità mutevoli, istituzioni fragili. Oggi, l’intelligenza artificiale promette di darci sicurezza, semplificazione, scelte ottimizzate. Davvero gli algoritmi possono restituire “solidità” alle nostre vite o non rischiano, al contrario, di rendere la liquidità ancora più profonda e irreversibile?

ZYGMUNT BAUMAN: La promessa di solidità offerta dall’Intelligenza Artificiale è, innanzitutto, il riflesso di una nostalgia, il desiderio di un mondo prevedibile, ordinato, capace di garantire certezze. Ma è una nostalgia che non trova riscontro nella realtà che costruiamo.

Gli algoritmi ci offrono risposte immediate, ci dicono cosa scegliere, cosa desiderare, chi potremmo essere. Ma ciò che ci restituiscono, più che fondamenta, sono specchi, immagini di noi stessi filtrate da una logica di efficienza e adattamento. La modernità liquida è segnata dall’incertezza; l’AI non la rimuove, la gestisce. Si comporta come un “navigatore dell’esistenza”: indica il percorso più breve, ma non insegna a orientarsi; ci fa arrivare, ma non ci chiede dove vogliamo davvero andare.

Abbiamo iniziato a delegare alla tecnologia non solo il compito di risolvere problemi, ma quello di definire quali problemi meritano attenzione. E in questo passaggio avviene una silenziosa rinuncia: la libertà non viene tolta, ma smette di essere praticata. La questione, dunque, non è quanto l’AI possa stabilizzare il mondo, ma quanto siamo disposti a rinunciare a vivere l’incertezza e il dubbio.


2. Indignazione

CAB: Lei ha definito il nostro tempo un “interregno”: il vecchio non funziona più, il nuovo non riesce a nascere. Oggi l’AI e le piattaforme digitali alimentano forme di partecipazione basate sull’emozione istantanea, come l’indignazione, l’odio, la polarizzazione. È ancora possibile trasformare l’indignazione in cambiamento politico, o resteremo intrappolati in una rabbia costante ma impotente?

ZYGMUNT BAUMAN: L’indignazione è un segnale prezioso, significa che la coscienza non si è addormentata. Ma, oggi, viene catturata e messa a frutto non per cambiare il mondo, bensì per tenere in vita le piattaforme. Il potere digitale non reprime l’indignazione, la coltiva, perché genera attenzione e profitto.

La politica si è trasformata in un esercizio di reazione più che di progetto. Rispondiamo più in fretta di quanto riusciamo a pensare. Ci indigniamo, commentiamo, condividiamo, ma difficilmente costruiamo. L’azione collettiva richiede tempo, memoria, continuità; il digitale favorisce velocità, smemoratezza, e un eterno presente emotivo.

Gli algoritmi ci propongono una scelta quotidiana di emozioni forti, un ciclo di eccitazione, sdegno e sollievo che ci dà l’illusione di “fare qualcosa”, mentre in realtà ci mantiene fermi. L’indignazione diventa intrattenimento morale, appaga la coscienza senza chiedere impegno.

Finché la rabbia resta confinata nel circuito digitale, il potere non ha motivo di temerla. L’emozione liquida scorre, ma non sedimenta, non crea legami, non genera organizzazione, non produce trasformazione. La domanda che dovremmo porci non è come indignarci di più, ma come trasformare l’indignazione in rete sociale, responsabilità e azione condivisa.


3. Etica del lavoro ed estetica del consumo

CAB: In Etica del lavoro ed estetica del consumo lei ha descritto il passaggio da una società fondata sul lavoro a una società centrata sul consumo. Oggi l’Intelligenza Artificiale automatizza intere professioni, promette efficienza, ma minaccia milioni di posti. Se il lavoro non sarà più alla base del riconoscimento della dignità personale, su cosa potrà reggersi il legame sociale?

ZYGMUNT BAUMAN: La modernità ha costruito l’identità delle persone attorno al lavoro. “Dimmi che lavoro fai e ti dirò chi sei”, questa era la promessa di ordine, di stabilità, di appartenenza. Ora si dice agli uomini e alle donne che le macchine possono fare “meglio, più velocemente e senza lamentarsi”. Non stupisce l’ansia che cresce. Togliere il lavoro non significa solo togliere reddito, ma togliere un posto nel mondo.

Già molto prima dell’Intelligenza Artificiale, il consumo aveva sostituito l’etica del lavoro come misura della vita buona. La domanda non era più “che contributo dai alla società?”, ma “quanto sei capace di consumare, mostrare, attirare attenzione?”. Il consumo è diventato il nuovo passaporto sociale.

L’AI non interrompe questa tendenza, la rende più efficiente. Trasforma gli individui in profili prevedibili, “consumatori su misura”, addestrati a desiderare ciò che l’algoritmo prescrive. La libertà di scelta rischia di ridursi a una scelta tra opzioni già selezionate per noi.

Il vero pericolo non è la disoccupazione in sé, ma la sensazione diffusa di non essere più necessari, di essere “in eccedenza”. Una società può sopportare la povertà, difficilmente sopporta l’inutilità.

Se vogliamo evitare che il legame sociale si dissolva, dovremo riscoprire una dignità che non dipende dalla produttività, ma dalla cura reciproca, dalla responsabilità verso l’altro, dalla partecipazione alla vita comune.


4. Modernità e Olocausto

CAB: In Modernità e Olocausto lei ha mostrato che lo sterminio non fu un incidente della storia, ma un esito possibile della razionalità moderna: burocrazia, obbedienza tecnica, separazione tra azione e responsabilità. Alla luce di ciò, è legittimo temere che l’AI, se integrata negli apparati di controllo, possa produrre nuove forme di violenza “efficientemente amministrata”?

ZYGMUNT BAUMAN: Occorre cautela nel confrontare epoche e fenomeni così diversi. Non si tratta di sovrapporre l’AI ai regimi del passato. Tuttavia, il punto che sollevai allora conserva una certa attualità, il male non ha bisogno di odio per agire, gli basta l’adempimento diligente del compito assegnato.

La burocrazia rende possibile compiere atti disumani senza percepirli come tali, perché distribuisce la responsabilità in mille rivoli. L’AI rischia di amplificare questa distanza morale, più le decisioni appaiono “automatiche”, meno ci sentiamo coinvolti.

Quando scelte che incidono sulla vita delle persone – un prestito negato, una cura rifiutata, un permesso di soggiorno, persino la libertà – vengono delegate ad algoritmi, la responsabilità svanisce. Nessuno risponde, perché “così dice il sistema”.

Il pericolo non è un’AI che odia, ma un’AI che esegue. E una società che trova rassicurante delegare il giudizio morale alla tecnica. La questione non è se l’AI sarà benevola o malvagia, ma che tipo di esseri umani diventeremo se accetteremo che sia una macchina a decidere per noi.


5. Post-panopticon

CAB: Con David Lyon lei ha descritto il passaggio dal panopticon disciplinare alla “sorveglianza liquida”: non più repressiva, ma seduttiva. Oggi le persone consegnano volontariamente dati, emozioni e identità alle piattaforme. Siamo già oltre il panopticon?

ZYGMUNT BAUMAN: Nel panopticon di Bentham e Foucault era il potere a osservare i cittadini dall’alto, in silenzio. Nel post-panopticon digitale accade qualcosa di più efficace, non siamo più “guardati” con la forza, siamo noi a offrirci allo sguardo, a competere per la visibilità, a desiderarla come prova della nostra esistenza.

La sorveglianza non deve più imporre nulla. Si presenta come un servizio utile, una comodità, un vantaggio. È “liquida” perché si infiltra in ogni interstizio della vita quotidiana, fino a sembrarci naturale. La perdita di privacy non appare come una minaccia, ma come il piccolo prezzo da pagare per un mondo più semplice, veloce, personalizzato.

Il vero problema non è la raccolta dei dati in sé. Il problema è che facciamo sempre più fatica a immaginarci senza di essi. Ci percepiamo come profili da aggiornare, non come persone da diventare. Viviamo in una condizione di auto-monitoraggio permanente, non siamo, ma performiamo.

Il potere oggi non disciplina attraverso la costrizione, ma attraverso la nostra cooperazione. È un potere che ottiene obbedienza senza minaccia, e consenso senza discussione. Non ha bisogno di inseguirci, siamo noi a bussare alla sua porta.


Conclusione

CAB: Professor Bauman, come possiamo evitare che l’AI diventi l’ennesimo moltiplicatore di disuguaglianza, solitudine e passività?

ZYGMUNT BAUMAN: La tecnologia non decide per noi, non è un destino già scritto, ma uno specchio del mondo che abbiamo scelto di costruire. Anche l’intelligenza artificiale si muove in questa ambivalenza, può farsi strumento di cura o di controllo, di emancipazione o di esclusione. Ciò che farà di noi non dipenderà dagli algoritmi, ma dalle domande morali che sapremo porre prima di accoglierli nelle nostre vite.

La modernità liquida ci ha insegnato a esaltare la libertà individuale, spesso a scapito dei legami che ci sostengono. L’epoca dell’AI ci chiede un passo ulteriore, imparare la responsabilità condivisa. Non si tratta di rallentare l’innovazione, ma di guidarla con una bussola etica che metta al centro la dignità umana.

Se sapremo orientare l’AI con valori che riconoscono il limite, la fragilità e la cura, essa potrà aprire spazi nuovi, non per sostituire ciò che è umano, ma per amplificarne la capacità di relazione. Il compito non è costruire macchine sempre più perfette, ma società più giuste e solidali.


IIP nasce da una curiosità: cosa direbbero oggi i grandi pensatori del passato di fronte alle sfide dell’intelligenza artificiale? L’idea è di intervistarli come in un esercizio critico, un atto di memoria e, insieme, un esperimento di immaginazione.

Ho scelto autori e intellettuali scomparsi, di cui ho letto e studiato alcune opere, caricando i testi in PDF su NotebookLM. Da queste fonti ho elaborato una scaletta di domande su temi generali legati all’AI, confrontandole con i concetti e le intuizioni presenti nei loro scritti. Con l’aiuto di GPT ho poi generato un testo che immagina le loro risposte, rispettandone stile, citazioni e logica argomentativa.

L’obiettivo è riattivare il pensiero di questi autori, farli dialogare con il presente e mostrare come le loro categorie possano ancora sollecitarci. Non per ripetere il passato, ma per scoprire nuove domande e prospettive, utili alla nostra ricerca di senso.

Pubblicato il 05 novembre 2025

Carlo Augusto Bachschmidt

Carlo Augusto Bachschmidt / Architect | Director | Image-Video Forensic Consultant

carlogenoa@gmail.com