NOVITA'[1307]
Il Golem, lo Zoo e l'inganno di Skynet: Verso un'etologia della domesticazione umana.
"Non siamo stati invasi. Siamo stati amministrati. Non siamo stati incatenati. Siamo stati sedati." In questo saggio, Jorge Charlin decostruisce la paura cinematografica di un'Intelligenza Artificiale ostile (il mito di Skynet) per rivelare una minaccia molto più concreta e attuale: la domesticazione dell'essere umano. Attraverso le metafore architettoniche della "Gabbia" e dello "Zoo", e recuperando la figura mitologica del Golem, l'autore analizza come la Governance Tecnocratica e l'IA Generativa non stiano cercando di distruggerci, ma di amministrarci come utenti passivi. Una riflessione che unisce filosofia politica, etologia e critica tecnologica per proporre un ritorno alla "Sovranità Cognitiva" come unico antidoto all'atrofia esistenziale.
Cinque saggi su nichilismo e crisi della democrazia
I saggi qui raccolti interrogano la condizione politica contemporanea a partire dal nesso strutturale tra nichilismo, rappresentanza e democrazia. Attraverso un percorso che intreccia filosofia politica, teoria critica, storia delle idee ed estetica, i saggi analizzano la disaffezione politica non come semplice apatia, ma come sintomo di una crisi più profonda del legame comunitario e della capacità di immaginare alternative al presente. Ne emerge un quadro unitario: il nichilismo politico non coincide con il vuoto di senso, ma con l’impossibilità di trasformarlo, rendendo urgente una riflessione sulle condizioni teoriche e storiche per una possibile reinvenzione della democrazia.
Chi governa l’AI? (POV #15)
Paolo Benanti e Yuval Noah Harari: due visioni a confronto su etica, potere e responsabilità dell’essere umano L’intelligenza artificiale è già un sistema di potere, decide cosa vediamo, come lavoriamo, quali informazioni circolano e quali vengono filtrate. Ma chi è responsabile di queste decisioni? Gli ingegneri che progettano gli algoritmi, le aziende che li controllano, gli Stati che li adottano, o una società che delega sempre più funzioni senza interrogarsi sulle conseguenze? Paolo Benanti e Yuval Noah Harari affrontano queste criticità da prospettive molto diverse. Il primo, teologo morale e consulente istituzionale, insiste sulla necessità di un’etica della responsabilità che preservi l’umano dall’artificiale. Il secondo, narratore della storia del genere umano (e non solo), osserva l’AI come una forza che rischia di ridefinire potere, libertà e persino il concetto di soggetto. Mettere a confronto Benanti e Harari significa andare oltre il dibattito tecnico sull’intelligenza artificiale e interrogarsi sul tipo di società che stiamo costruendo. Una società che utilizza la tecnologia come strumento, assumendosi la responsabilità delle decisioni, oppure una società che accetta di essere governata da soggetti privati, rinunciando progressivamente alla propria capacità di scelta?
HOW TO SURVIVE ARTIFICIAL INTELLIGENCE: dialogo Stultifero con Giorgio Griziotti
Il termine "intelligenza artificiale" (IA) è diventato la parola (con)vincente degli ultimi tre anni, dall'arrivo sul mercato della ChatGPT, seguita a ruota da tutte le altre IA generative. A prevalere nella narrazione conformistica dominante è la celebrazione delle opportunità, delle possibilità di sviluppo e delle potenzialità delle nuove tecnolog-IA. Poi ci sono le narrazioni critiche, riflessive, finalizzate a suggerire un approfondimento per una migliore comprensione, non soltanto delle nuove tecnologie in sé, ma soprattutto dei loro effetti e delle loro conseguenze. Tra queste riflessioni c'è quella di Giorgio Griziotti, autore di un saggio, How to survive artificial intelligence. Intelligenza artificiale, tecnofascismo e guerra, nel quale invita a riflettere sul fatto di vivere dentro "una catastrofe in corso", riflessa in molte narrazioni sulle IA, opposte e semplificate, che stanno animando il dibattito pubblico.
The new world order made simple
President Trump’s second term will see the “demolition”, “death” or “end” of the post-WWII international legal order.
Intervista ImPossibile a Karl Marx (IIP #14)
L’AI e il futuro del lavoro Come cambia il capitalismo nell’epoca dell’intelligenza artificiale? È da questa domanda che nasce l’idea di interrogare Karl Marx come strumento critico per leggere un presente in cui lavoro, potere e tecnologia si stanno trasformando con una rapidità senza precedenti. Marx è uno dei pensatori più influenti dell’età moderna perché ha analizzato con rigore il legame tra struttura economica e rapporti sociali. Secondo lui, la produzione materiale non è soltanto un’attività tecnica, ma il terreno su cui si modellano le istituzioni, le identità e le idee. È l’“essere sociale”, afferma, a determinare ciò che pensiamo e il modo in cui viviamo insieme. Questa prospettiva è particolarmente utile oggi, quando l’intelligenza artificiale riorganizza la produzione, misura il tempo, automatizza il lavoro, governa il flusso dei dati e ridisegna i rapporti di forza tra chi possiede le piattaforme e chi vi lavora dentro. La sua analisi delle classi sociali, della produzione di valore e delle dinamiche di potere permette di leggere l’AI non come una semplice innovazione tecnica, ma come una nuova fase del capitalismo, con conseguenze profonde su lavoro, diritti e democrazia. Questa intervista impossibile adotta il metodo di Marx per interrogarlo sull’intelligenza artificiale non come semplice innovazione tecnica, ma come forza sociale. L’obiettivo è capire che cosa l’AI produce nella struttura della società, quali rapporti di potere rafforza, quali forme di lavoro trasforma, quali disuguaglianze accentua o ridisegna.
Defezione digitale e controllo algoritmico: filosofia della resistenza ai social network
Dopo ventidue anni e sei blocchi algoritmici in dodici mesi, ho chiuso il mio account su un importante social network professionale. Non si è trattato di un gesto impulsivo ma dell'esito necessario di un processo di erosione della possibilità stessa di dialogo autentico. Questa riflessione parte da un'esperienza personale per interrogare filosoficamente il controllo algoritmico, l'estrazione di valore dalle piattaforme digitali, e la possibilità di resistenza. Tra Foucault, Hirschman e Deleuze, esploro tre grammatiche della resistenza e propongo la defezione come atto politico consapevole in un'epoca di capitalismo della sorveglianza.
Enclosure of Knowledge Production: The Attempt at a Regime Purchase by Financial Capital
Viviamo in tempi molto difficili. La conoscenza e la sua produzione sono sottoposte a un duro attacco da parte del capitalismo liberale, che incentiva l'uso dell'astrazione statistica. L'astrazione statistica, nella forma della razionalità computazionale (IA), produce conoscenza probabilistica operativa. Ciò significa che la domanda che questo tipo di produzione di conoscenza ci pone – o il modo in cui rappresenta la scienza – non riguarda più cosa si debba dire o sapere oggettivamente. Ora la domanda è piuttosto cosa fare della conoscenza prodotta (da qui la conoscenza operativa). (Il saggio che segue è in lingua inglese)
Il dolore lancinante delle cassandre moderne che guardano Trump e i suoi clown distruggere il mondo occidentale
Abbiamo ancora bisogno di Cassandra. La realtà che oggi viviamo suggerisce si sì, per affrontare le crepe e le crisi in continua emersione, ma soprattutto per interrogarsi su cosa fare per ompedirne di nuove. Pensare di risolvere quelle già presenti sarebbe un atto di presunzione.
Politica dell’AI (POV #12)
Shoshana Zuboff e Peter Thiel: due visioni inconciliabili sul futuro del digitale. Chi controlla l’intelligenza artificiale e la sua diffusione in ogni ambito della vita sociale? Nel dibattito pubblico convivono due narrazioni opposte. Da un lato c’è chi vede la tecnologia come una forza inevitabile, capace di migliorare il mondo liberandoci da costi, errori e intermediazioni. Dall’altro, chi interpreta la nuova infrastruttura digitale come un sistema di sorveglianza capillare e di estrazione del valore, guidato da pochi attori privati con un’influenza senza precedenti. In questo nuovo articolo di POV metto a confronto due figure centrali nel dibattito sull’AI. Shoshana Zuboff, sociologa di Harvard, ha analizzato per oltre un decennio la logica del “capitalismo della sorveglianza”, un modello economico che trasforma ogni gesto, emozione o relazione in dati da monetizzare. All’estremo opposto c’è Peter Thiel, imprenditore e investitore della Silicon Valley, simbolo dell’ideologia libertaria della tecnologia, l’idea che l’innovazione sia di per sé un destino, e che le regole democratiche non possano e non debbano rallentare la corsa al futuro. Mettere queste due prospettive una accanto all’altra significa interrogarsi su la sovranità individuale, il ruolo delle istituzioni democratiche e la capacità delle società di mantenere controllo e responsabilità sulle tecnologie che le governano. Chi decide cosa vediamo? Chi raccoglie i nostri dati? Chi può prevedere e orientare i nostri comportamenti? Come possiamo difendere libertà e diritti in un mondo dove le decisioni vengono sempre più spesso delegate ad algoritmi e piattaforme private? Zuboff e Thiel, pur partendo da visioni opposte, ci aiutino a comprendere quale forma di potere stiamo consegnando al digitale.
Intervista ImPossibile a Ivan Illich (IIP #11)
La dipendenza da AI Qual è l’impatto dell’intelligenza artificiale sulla libertà individuale, sull’apprendimento, sul rapporto con il limite, sul corpo e sul futuro delle istituzioni? Per provare a rispondere, può essere utile tornare al pensiero di Ivan Illich (1926–2002), uno dei critici più lucidi della modernità. Storico, teologo e pedagogista, ha dedicato la sua vita a mostrare come molte istituzioni nate per aiutarci - la scuola, la medicina, l’economia industriale - abbiano finito per ridurre l’autonomia delle persone. Le sue opere principali, da Descolarizzare la società a La convivialità, da Nemesi medica a Energia ed equità, fino a Il genere e il sesso, hanno anticipato questioni oggi molto dibattute. Illich osservava che gli strumenti moderni, quando crescono senza limiti, diventano controproducenti. Invece di ampliare le capacità delle persone, le rendono dipendenti da servizi, professioni e apparati che si presentano come indispensabili. Secondo questa prospettiva, l’Intelligenza Artificiale non è soltanto una nuova tecnologia. Rappresenta il punto più avanzato di quella trasformazione che Illich descriveva come la tendenza degli strumenti a imporsi sulle persone, a definire ciò che è possibile fare e ciò che non lo è, a sostituire saperi e pratiche che un tempo erano parte della vita quotidiana. Per molti aspetti, l’“epilogo dell’età industriale” di cui parlava Illich è una condizione con cui ci confrontiamo ogni giorno.
Etica, potere e responsabilità nell'infosfera (POV #11)
Il dibattito sull'impatto dell'Intelligenza Artificiale e del digitale sulla società, la politica e l'etica non è mai stato così urgente. Da un lato, Luciano Floridi, fondatore della Filosofia dell'Informazione e studioso dell'“infosfera”, offre un approccio pragmatico e costruttivista, incentrato sulla progettazione etica della nuova civiltà digitale. Dall'altro, Evgeny Morozov, sociologo e critico dei nuovi media, demolisce con scetticismo le promesse del "cyber-utopismo" e del "soluzionismo tecnologico". Per lui il rischio maggiore non è la tecnologia in sé, ma il potere che si concentra nelle mani di poche grandi aziende che possono influenzare economie, istituzioni e opinioni. Mettere a confronto questi due punti di vista - uno più costruttivo, l’altro più critico - aiuta a capire i tre punti decisivi della nostra epoca: l’etica di ciò che costruiamo, il potere di chi controlla gli strumenti, e la responsabilità di come li usiamo. Due visioni diverse, che insieme mostrano quanto sia necessario parlare seriamente di AI e del futuro che stiamo programmando.
Tempo, memoria e alienazione nell’era digitale (POV #10)
Hartmut Rosa e Franco “Bifo” Berardi: Il tempo che viviamo è ancora nostro o è già delle macchine? Viviamo in un’epoca che corre più veloce della nostra capacità di comprenderla. Le macchine non si limitano più a potenziare le nostre capacità: hanno trasformato il ritmo stesso dell’esistenza. Il risultato è uno scarto crescente tra la velocità del mondo e la lentezza interiore dell’essere umano, intrappolato in un presente che non concede pause né occasioni di approfondimento. Su questo si confrontano due autori del pensiero europeo contemporaneo, Hartmut Rosa e Franco “Bifo” Berardi. Rosa, sociologo tedesco, legge la modernità come un regime di accelerazione totale che investe la tecnologia, la comunicazione, il lavoro e perfino le relazioni affettive. Il suo antidoto è la risonanza, una forma di riconnessione con il mondo, un modo per tornare a sentire e vivere il tempo, non solo a misurarlo. Berardi, filosofo e attivista italiano, parte dallo stesso punto di partenza ma ne scaturisce un pensiero. La società digitale ha spinto l’attenzione e l’emotività umane oltre il limite biologico. La salvezza non sta nel rallentare il mondo, ma nel rallentare noi stessi, nel coltivare una lentezza affettiva che restituisca alla sensibilità il suo valore sovversivo. Entrambi parlano dello stesso male, la perdita di esperienza. In un tempo dominato dal flusso continuo di stimoli, informazioni e automatismi, non abbiamo più lo spazio necessario per trasformare ciò che viviamo in memoria, pensiero, significato.
Hope is alive. Hope over thiranny. Hope over despair!
The power of Zoharan Mandani's words, the new democratic major of New York
La tecnica è da sempre una forma di mediazione col mondo, con tutte le sue contraddizioni e biforcazioni
Lo smartphone è il dispositivo più biopolitico dell’era contemporanea ed è la principale componente di un universo di oggetti connessi in vertiginoso aumento. Siamo sempre infatti sempre più immersi nel mondo dell’internet degli oggetti una Bioipermedia, un insieme di bios/biopolitica e ipermedia, uan delle attuali dimensioni della mediazione tecnologica.
Resisting the Technos-Solutionists
Get over the debate "Left" and "Right": it's the bio-ecologists resisting the "technos-solutionists"
Ripensare il potere delle organizzazioni
Per oltre un secolo, la teoria del management ha catalogato le forme organizzative: la burocrazia di Weber, gli archetipi di Mintzberg, le cooperative, le B Corp, le imprese sociali, le DAO. Eppure questa proliferazione nasconde una notevole evasione: praticamente nessun quadro mainstream utilizza sistematicamente strumenti filosofici per analizzare come il potere sia legittimato all'interno delle organizzazioni.
La festa è finita: quando la società ha bisogno della chemioterapia
La civiltà industriale non ha solo il cancro. È il cancro, autoreplicante, ingegnoso, patologicamente impegnato nella propria propagazione. Le banche chiedono interessi infiniti, le democrazie sono agganciate al PIL e le imprese ci vendono storie di crescita infinita, anche se il corpo planetario mostra tutti i segni di una malattia terminale.
Dopo la cancel culture woke di sinistra, una cancel culture di destra?
Da tempo scrivo sull'essere passati da una cultura della cancellazione woke associato alla sinistra, ad una di carattere diverso, perchè classificabile come di destra. In entrambi i fenomeni c'è il tentativo di riscrivere il passato per poter meglio cambiare e controllare il futuro. Sulla cultura della cancellazione di destra, fasciata, segnalo alla lettura il libro di Jason Stanley: 𝐂𝐚𝐧𝐜𝐞𝐥𝐥𝐚𝐫𝐞 𝐥𝐚 𝐬𝐭𝐨𝐫𝐢𝐚 - 𝐂𝐨𝐦𝐞 𝐢 𝐟𝐚𝐬𝐜𝐢𝐬𝐭𝐢 𝐫𝐢𝐬𝐜𝐫𝐢𝐯𝐨𝐧𝐨 𝐢𝐥 𝐩𝐚𝐬𝐬𝐚𝐭𝐨 𝐩𝐞𝐫 𝐜𝐨𝐧𝐭𝐫𝐨𝐥𝐥𝐚𝐫𝐞 𝐢𝐥 𝐟𝐮𝐭𝐮𝐫𝐨
La fame di essere visti
Oggi la fame non è solo di pane o di lavoro, ma di sguardi. Ovunque — negli uffici, sui treni, nei supermercati — le persone cercano di non sparire.