NOVITA'[1759]
Intervista ImPossibile a Gregory Bateson (IIP #17)
Mente, natura e connessioni dell’AI Antropologo, biologo, cibernetico e filosofo del pensiero sistemico, Gregory Bateson (1904–1980) ha dedicato la sua opera a smontare la separazione tra mente e natura. Contro l’idea di una mente rinchiusa nel cervello o riducibile a un meccanismo logico, Bateson concepiva la mente come un sistema vivo di relazioni, diffuso nei circuiti che collegano organismi, ambienti, linguaggi e culture. Il suo obiettivo dichiarato era infatti «costruire un quadro di come il mondo è collegato nei suoi aspetti mentali», mostrando che il pensiero non è mai isolabile dal contesto in cui prende forma.
Intervista ImPossibile a Roland Barthes (IIP #16)
L’autore è morto Roland Barthes è noto per aver insegnato a generazioni di lettori a diffidare di ciò che appare naturale. Il suo lavoro consisteva nello smontare i dispositivi che producono consenso. Barthes ha mostrato come il linguaggio racconta il mondo, ma allo stesso tempo lo organizza e lo semplifica spesso al prezzo di cancellarne i conflitti.
La Morte di Eros: Come la tecnologia sta eliminando l'attrito che ci rende umani
La Morte di Eros: Perché la comodità digitale ci sta estinguendo. Nel 1968, l'esperimento "Universo 25" dimostrò che l'abbondanza senza sfide porta all'estinzione sociale. Oggi, l'Intelligenza Artificiale ci offre una gabbia dorata simile: una vita senza dolore, senza sforzo e senza Eros. Un'analisi su come la tecnologia agisce come una "madre iperprotettiva" che atrofizza la nostra volontà e perché la vera ribellione del XXI secolo consiste nell'abbracciare la difficoltà.
Il Golem, lo Zoo e l'inganno di Skynet: Verso un'etologia della domesticazione umana.
"Non siamo stati invasi. Siamo stati amministrati. Non siamo stati incatenati. Siamo stati sedati." In questo saggio, Jorge Charlin decostruisce la paura cinematografica di un'Intelligenza Artificiale ostile (il mito di Skynet) per rivelare una minaccia molto più concreta e attuale: la domesticazione dell'essere umano. Attraverso le metafore architettoniche della "Gabbia" e dello "Zoo", e recuperando la figura mitologica del Golem, l'autore analizza come la Governance Tecnocratica e l'IA Generativa non stiano cercando di distruggerci, ma di amministrarci come utenti passivi. Una riflessione che unisce filosofia politica, etologia e critica tecnologica per proporre un ritorno alla "Sovranità Cognitiva" come unico antidoto all'atrofia esistenziale.
Chi governa l’AI? (POV #15)
Paolo Benanti e Yuval Noah Harari: due visioni a confronto su etica, potere e responsabilità dell’essere umano L’intelligenza artificiale è già un sistema di potere, decide cosa vediamo, come lavoriamo, quali informazioni circolano e quali vengono filtrate. Ma chi è responsabile di queste decisioni? Gli ingegneri che progettano gli algoritmi, le aziende che li controllano, gli Stati che li adottano, o una società che delega sempre più funzioni senza interrogarsi sulle conseguenze? Paolo Benanti e Yuval Noah Harari affrontano queste criticità da prospettive molto diverse. Il primo, teologo morale e consulente istituzionale, insiste sulla necessità di un’etica della responsabilità che preservi l’umano dall’artificiale. Il secondo, narratore della storia del genere umano (e non solo), osserva l’AI come una forza che rischia di ridefinire potere, libertà e persino il concetto di soggetto. Mettere a confronto Benanti e Harari significa andare oltre il dibattito tecnico sull’intelligenza artificiale e interrogarsi sul tipo di società che stiamo costruendo. Una società che utilizza la tecnologia come strumento, assumendosi la responsabilità delle decisioni, oppure una società che accetta di essere governata da soggetti privati, rinunciando progressivamente alla propria capacità di scelta?
Architetti della disuguaglianza
Il newsmagazine 'Time' nomina 'Person of the Year' gli 'Architects of AI'. L'articolo che annuncia la nomina è in realtà una ambigua accettazione di una situazione economica e politica proiettata verso un incremento della forbice tra ricchezza e povertà. Dove la ricchezza è sempre più nelle mani di una ristretta élite di cui i tecno-scienziati sono la facciata esemplare. Più che dci 'Architetti dell'AI' si può dunque parlare di 'Architetti della disuguaglianza'.
La Trappola dell'Oracolo: Perché l'IA deve imparare a tacere
Non cercate la risposta perfetta. Cercate la domanda difficile. L'educazione del futuro non riguarda le risposte, ma la capacità di porre la domanda giusta. L'Occidente sta commettendo un errore fatale: usare l'IA come un Oracolo che fornisce risposte immediate, creando atrofia mentale. Questo articolo propone il "Progetto Socrate": un'architettura dove la tecnologia agisce come uno specchio per creare attrito cognitivo, non per eliminarlo. Una riflessione su come l'imperfezione biologica sia il nostro vero vantaggio competitivo.
Intervista ImPossibile a Karl Marx (IIP #14)
L’AI e il futuro del lavoro Come cambia il capitalismo nell’epoca dell’intelligenza artificiale? È da questa domanda che nasce l’idea di interrogare Karl Marx come strumento critico per leggere un presente in cui lavoro, potere e tecnologia si stanno trasformando con una rapidità senza precedenti. Marx è uno dei pensatori più influenti dell’età moderna perché ha analizzato con rigore il legame tra struttura economica e rapporti sociali. Secondo lui, la produzione materiale non è soltanto un’attività tecnica, ma il terreno su cui si modellano le istituzioni, le identità e le idee. È l’“essere sociale”, afferma, a determinare ciò che pensiamo e il modo in cui viviamo insieme. Questa prospettiva è particolarmente utile oggi, quando l’intelligenza artificiale riorganizza la produzione, misura il tempo, automatizza il lavoro, governa il flusso dei dati e ridisegna i rapporti di forza tra chi possiede le piattaforme e chi vi lavora dentro. La sua analisi delle classi sociali, della produzione di valore e delle dinamiche di potere permette di leggere l’AI non come una semplice innovazione tecnica, ma come una nuova fase del capitalismo, con conseguenze profonde su lavoro, diritti e democrazia. Questa intervista impossibile adotta il metodo di Marx per interrogarlo sull’intelligenza artificiale non come semplice innovazione tecnica, ma come forza sociale. L’obiettivo è capire che cosa l’AI produce nella struttura della società, quali rapporti di potere rafforza, quali forme di lavoro trasforma, quali disuguaglianze accentua o ridisegna.
"Perseverare Diabolicum?"
“Forse la cosa più umana di tutte,” mormorò Gigi, “è continuare a sbagliare. Sempre. Come se fosse una vocazione.”
Intelligenza collettiva o artificiale (POV #14)
Pierre Lévy e Geoffrey Hinton: Il futuro del pensiero umano L’apprendimento è ancora un atto sociale o è diventato un calcolo statistico? Che ruolo restano all’interpretazione, alla responsabilità, al legame tra le persone? E soprattutto, chi controllerà il futuro del sapere? Oggi ci troviamo davanti a un bivio. Da una parte l’idea di un’intelligenza distribuita tra individui e comunità; dall’altra la costruzione di sistemi artificiali che potrebbero rendere marginale il contributo umano. Due visioni, due epoche, due modi di intendere il pensiero. Pierre Lévy - filosofo, semiologo e tra i più importanti studiosi della cultura digitale - ha immaginato negli anni ’90 il cyberspazio come una nuova sfera del sapere condiviso. Geoffrey Hinton - neuroscienziato, pioniere del deep learning, Premio Turing e Nobel per la Fisica - oggi mette in guardia dal potere autonomo delle reti neurali che lui stesso ha contribuito a sviluppare. Lévy e Hinton incarnano così una trasformazione profonda, dalla rete come comunità cognitiva alla rete come possibile entità cognitiva autonoma.
Il Codice dell'Estinzione: Ciò che 12 menti brillanti hanno visto e noi ignoriamo
Da Dostoevskij alle Neuroscienze, la diagnosi è unanime: Il comfort non è una conquista, è un test evolutivo. E noi lo stiamo fallendo. Questo articolo esplora la crisi esistenziale moderna non come un fallimento tecnologico, ma come un'atrofia biologica e spirituale. Attraverso una sintesi audace che unisce la letteratura classica (Dostoevskij, Brontë), l'etologia (l'esperimento "Universo 25" di Calhoun e gli stimoli supernormali di Tinbergen), la filosofia politica (Arendt) e la neuroscienza, si sostiene che il comfort eccessivo e l'Intelligenza Artificiale stanno eliminando l'"attrito" necessario per la vita umana. La tesi centrale è che stiamo diventando "I Belli" di Calhoun: esseri perfetti esternamente ma vuoti internamente. L'autore propone la "Sovranità" e l'uso attivo della Corteccia Prefrontale come unica resistenza contro questa estinzione programmata dello spirito.
Intervista ImPossibile a Jacques Lacan (IIP #13)
Desiderio e AI Oggi viviamo circondati da tecnologie che classificano, predicono e ottimizzano. In questo scenario, l’insegnamento di Jacques Lacan torna sorprendentemente attuale. Che cos’è l’Altro nel contesto dell’intelligenza artificiale? Che forma assume il desiderio quando interagiamo con dispositivi che non parlano ma calcolano? E che ne è del soggetto quando il linguaggio diventa un’infrastruttura tecnica e automatizzata? L’opera di Lacan ha trasformato il modo di intendere la psicoanalisi, rendendola un discorso rigoroso sul linguaggio e sul desiderio. Per lui l’inconscio non è un luogo oscuro colmo di pulsioni, ma una struttura composta da parole, segni e connessioni che seguono una loro logica interna. L’intervista impossibile che segue prova a rimettere in circolo il suo pensiero, facendolo risuonare nel presente e mostrando come il suo discorso continui a sollevare le domande fondamentali del nostro rapporto con l’AI, il potere e il desiderio.
Conrad e il "punto nave" del nostro viaggio con l'AI
C'è un momento, nella navigazione, in cui il comandante deve fermarsi e fare il punto nave: verificare la posizione reale rispetto alla rotta prevista, misurare la deriva provocata dalle correnti, dagli errori accumulati. Non è sfiducia negli strumenti – è l'unico modo per evitare che una piccola deviazione diventi, nei giorni seguenti, una rotta completamente sbagliata. Forse è arrivato il momento di fare il punto nave della nostra relazione con l'intelligenza artificiale generativa. La proposta è semplice quanto radicale: spegnere, per qualche giorno, tutti i modelli generativi. Non come condanna, ma come esperimento diagnostico. Vedere cosa succede. Misurare cosa abbiamo delegato interamente e cosa, viceversa, abbiamo guadagnato. Capire quanto della nostra "forza muscolare cognitiva e critica" abbiamo già perso in questi due anni.
Ecologia e Intelligenza Artificiale (POV #13)
Timothy Morton e Massimo Chiriatti: due modi di pensare la coesistenza tra umani, macchine e pianeta Che cosa significa parlare di intelligenza artificiale in un mondo colpito dalla crisi climatica? È solo una questione di algoritmi e sostenibilità energetica, oppure l’AI ci costringe a ripensare le categorie con cui interpretiamo la realtà, la responsabilità e il vivente? Il confronto tra Timothy Morton e Massimo Chiriatti permette di affrontare la domanda da due lati opposti: il pensiero ecologico radicale e la cultura tecnologica del limite. Da una parte Morton, teorico dell’“iperoggetto”, dissolve le frontiere tra umano, macchina e biosfera, l’AI non è altro che un nuovo attore nella rete planetaria degli oggetti che ci precedono e ci eccedono. Dall’altra Chiriatti, economista e tecnologo, rivendica una postura umana e normativa, l’AI resta un “esecutore incosciente”, potente ma privo di semantica, che va ricondotto dentro un orizzonte etico e politico.
Intervista ImPossibile a Pablo Picasso (IIP #12)
Il minotauro e l’algoritmo Che cosa resta dell’istinto creativo nell’epoca delle immagini generate automaticamente? In che modo la tecnologia sta trasformando la nostra idea di autenticità, responsabilità e libertà artistica? Da una parte c’è il minotauro, la creatura metà uomo e metà animale che Picasso. Dall’altra parte c’è l’algoritmo, il simbolo della nostra epoca digitale, una logica impersonale che ordina, calcola e genera immagini decidendo cosa possiamo vedere ogni giorno. Accostare queste due figure significa raccontare la tensione tra ciò che nasce dall’esperienza umana e ciò che viene prodotto da sistemi che imitano tutto senza vivere nulla. Il Minotauro rappresenta la parte irrazionale, emotiva e imprevedibile della creazione, l’Algoritmo, la macchina che combina e simula. Pablo Picasso è stato un’esplosione di energia creativa e distruttiva al tempo stesso, che ha spesso usato come suo alter ego, il minotauro, una figura istintiva, capace di incarnare la forza creativa ma anche la violenza del mondo. Un artista che ha denunciato la violenza, ha rifiutato compromessi e ha sempre rivendicato la responsabilità dell’artista. La sua visione dell’arte è ancora attuale, come ad esempio l’idea che “l’arte sia una menzogna che ci permette di conoscere la verità”. Questa Intervista ImPossibile prova a interrogarlo per un confronto immaginario su arte, falsificazione, allucinazioni algoritmiche e potere delle immagini in un periodo in cui il confine tra vero e falso è diventato il cuore del dibattito sulla crisi dell’autenticità, sulla delega creativa e sul futuro della libertà artistica nell’era delle macchine generative.
Mettete le ruote alla AI
L'altro giorno ero in aeroporto. Stavo partendo per un breve fine settimana di vacanza. E avevo con me il mio trolley a quattro ruote, bello, compatto, scorrevole, comodissimo. E mi sono tornate in mente le valigie della mia gioventù, durante gli anni settanta: grandi, pesanti, con le maniglie. Roba che portare sulle spalle lo zaino da 25 chili sembrava una passeggiata. E ho pensato: certo che ce ne ha messo di tempo, l'umanità, a mettere le ruote alle valigie. Ma mi è anche venuto da pensare quanto tempo ci abbiamo messo a passare dal trolley a due ruote a quello a quattro. Da non credere. Mi sono messo a riflettere sulla tecnologia, sulle "invenzioni", sul loro senso e sulla loro diffusione. Le parole che seguono sono l'esito di quelle riflessioni, fatte mentre il mio trolley a quattro ruote rotolava scorrevole sul pavimento di Fiumicino.
Politica dell’AI (POV #12)
Shoshana Zuboff e Peter Thiel: due visioni inconciliabili sul futuro del digitale. Chi controlla l’intelligenza artificiale e la sua diffusione in ogni ambito della vita sociale? Nel dibattito pubblico convivono due narrazioni opposte. Da un lato c’è chi vede la tecnologia come una forza inevitabile, capace di migliorare il mondo liberandoci da costi, errori e intermediazioni. Dall’altro, chi interpreta la nuova infrastruttura digitale come un sistema di sorveglianza capillare e di estrazione del valore, guidato da pochi attori privati con un’influenza senza precedenti. In questo nuovo articolo di POV metto a confronto due figure centrali nel dibattito sull’AI. Shoshana Zuboff, sociologa di Harvard, ha analizzato per oltre un decennio la logica del “capitalismo della sorveglianza”, un modello economico che trasforma ogni gesto, emozione o relazione in dati da monetizzare. All’estremo opposto c’è Peter Thiel, imprenditore e investitore della Silicon Valley, simbolo dell’ideologia libertaria della tecnologia, l’idea che l’innovazione sia di per sé un destino, e che le regole democratiche non possano e non debbano rallentare la corsa al futuro. Mettere queste due prospettive una accanto all’altra significa interrogarsi su la sovranità individuale, il ruolo delle istituzioni democratiche e la capacità delle società di mantenere controllo e responsabilità sulle tecnologie che le governano. Chi decide cosa vediamo? Chi raccoglie i nostri dati? Chi può prevedere e orientare i nostri comportamenti? Come possiamo difendere libertà e diritti in un mondo dove le decisioni vengono sempre più spesso delegate ad algoritmi e piattaforme private? Zuboff e Thiel, pur partendo da visioni opposte, ci aiutino a comprendere quale forma di potere stiamo consegnando al digitale.
Intervista ImPossibile a Ivan Illich (IIP #11)
La dipendenza da AI Qual è l’impatto dell’intelligenza artificiale sulla libertà individuale, sull’apprendimento, sul rapporto con il limite, sul corpo e sul futuro delle istituzioni? Per provare a rispondere, può essere utile tornare al pensiero di Ivan Illich (1926–2002), uno dei critici più lucidi della modernità. Storico, teologo e pedagogista, ha dedicato la sua vita a mostrare come molte istituzioni nate per aiutarci - la scuola, la medicina, l’economia industriale - abbiano finito per ridurre l’autonomia delle persone. Le sue opere principali, da Descolarizzare la società a La convivialità, da Nemesi medica a Energia ed equità, fino a Il genere e il sesso, hanno anticipato questioni oggi molto dibattute. Illich osservava che gli strumenti moderni, quando crescono senza limiti, diventano controproducenti. Invece di ampliare le capacità delle persone, le rendono dipendenti da servizi, professioni e apparati che si presentano come indispensabili. Secondo questa prospettiva, l’Intelligenza Artificiale non è soltanto una nuova tecnologia. Rappresenta il punto più avanzato di quella trasformazione che Illich descriveva come la tendenza degli strumenti a imporsi sulle persone, a definire ciò che è possibile fare e ciò che non lo è, a sostituire saperi e pratiche che un tempo erano parte della vita quotidiana. Per molti aspetti, l’“epilogo dell’età industriale” di cui parlava Illich è una condizione con cui ci confrontiamo ogni giorno.
La Sindrome del Criceto Hi-Tech
Etica, potere e responsabilità nell'infosfera (POV #11)
Il dibattito sull'impatto dell'Intelligenza Artificiale e del digitale sulla società, la politica e l'etica non è mai stato così urgente. Da un lato, Luciano Floridi, fondatore della Filosofia dell'Informazione e studioso dell'“infosfera”, offre un approccio pragmatico e costruttivista, incentrato sulla progettazione etica della nuova civiltà digitale. Dall'altro, Evgeny Morozov, sociologo e critico dei nuovi media, demolisce con scetticismo le promesse del "cyber-utopismo" e del "soluzionismo tecnologico". Per lui il rischio maggiore non è la tecnologia in sé, ma il potere che si concentra nelle mani di poche grandi aziende che possono influenzare economie, istituzioni e opinioni. Mettere a confronto questi due punti di vista - uno più costruttivo, l’altro più critico - aiuta a capire i tre punti decisivi della nostra epoca: l’etica di ciò che costruiamo, il potere di chi controlla gli strumenti, e la responsabilità di come li usiamo. Due visioni diverse, che insieme mostrano quanto sia necessario parlare seriamente di AI e del futuro che stiamo programmando.