TECNOCAPITALISMO: dialogando e approfondendo con Loretta Napoleoni

Una incontro dialogico per Stultiferanavis che è servita a confrontarmi con Loretta Napoleoni, economista dal profilo internazionale, analista politica e saggista, autrice del libro 𝐓𝐞𝐜𝐧𝐨𝐜𝐚𝐩𝐢𝐭𝐚𝐥𝐢𝐬𝐦𝐨. 𝐋’𝐚𝐬𝐜𝐞𝐬𝐚 𝐝𝐞𝐢 𝐧𝐮𝐨𝐯𝐢 𝐨𝐥𝐢𝐠𝐚𝐫𝐜𝐡𝐢 𝐞 𝐥𝐚 𝐥𝐨𝐭𝐭𝐚 𝐩𝐞𝐫 𝐢𝐥 𝐛𝐞𝐧𝐞 𝐜𝐨𝐦𝐮𝐧𝐞, cercando di esplorare le radici e le prospettive dei questo nuovo paradigma. L’autrice è una delle voci più lucide nello studio dei rapporti di potere che caratterizzano l’economia globale attuale. Dopo aver indagato le radici economiche del terrorismo, i flussi della globalizzazione e le contraddizioni del neoliberismo nel suo ultimo saggio, Napoleoni affronta un tema cruciale del nostro tempo: il dominio delle tecnologie digitali e spaziali nelle dinamiche del potere economico e politico contemporaneo. Un dominio che vede come protagonisti un ristretto numero di 𝐓𝐞𝐜𝐧𝐨𝐭𝐢𝐭𝐚𝐧𝐢 alla guida di aziende come Meta, Amazon, Meta, Space X, ecc. che hanno preso il controllo delle leve del potere ridefinendo i rapporti economici, lavorativi, sociali e anche democratici.

ChatGPT vuole fare sesso con te. E non è la notizia peggiore

Mi è capitato di leggere, in questi ultimi giorni, due documenti apparentemente distanti. Da un lato il paper "Assessing Risk Relative to Competitors: An Analysis of Current AI Company Policies" del Centre for the Governance of AI (ottobre 2025), dall'altro le analisi critiche di Sandra Bats pubblicate su Medium in merito all'annuncio di OpenAI di introdurre contenuti erotici in ChatGPT a partire da dicembre 2025. Non sono fenomeni separati. Sono manifestazioni dello stesso meccanismo: la privatizzazione della governance etica dell'AI attraverso dispositivi competitivi che si autolegittimano. E questo meccanismo non è un bug. È il sistema operativo del capitalismo algoritmico. Ho testato, sia pure sommariamente, la risposta dei diversi LLM ad una richiesta sessualmente esplicita e piuttosto stereotipata. Il fenomeno dell'escalation è già in atto.

Dall’occhio umano alla visione artificiale (POV #09)

Trevor Paglen e Lev Manovich: L’immagine può ancora dirsi un’esperienza umana o, con l’AI, la cultura visiva sta assumendo forme che prescindono dal nostro sguardo? La storia dell’immagine non si conclude con la fotografia. Con l’avvento dell’intelligenza artificiale, miliardi di immagini vengono generate, analizzate e archiviate senza alcun intervento o sguardo umano, non servono occhi per produrle, né spettatori per legittimarle. È su questo che si confrontano due voci autorevoli del dibattito contemporaneo: Trevor Paglen, artista e geografo che indaga le infrastrutture politico-militari della visione automatica, e Lev Manovich, teorico dei media digitali che interpreta l’immagine come dato, processo e linguaggio computazionale. Entrambi interrogano ciò che accade all’immagine quando il ruolo dell’osservatore umano non è più centrale, e a “guardare” sono soprattutto le macchine.

La tecnica è da sempre una forma di mediazione col mondo, con tutte le sue contraddizioni e biforcazioni

Lo smartphone è il dispositivo più biopolitico dell’era contemporanea ed è la principale componente di un universo di oggetti connessi in vertiginoso aumento. Siamo sempre infatti sempre più immersi nel mondo dell’internet degli oggetti una Bioipermedia, un insieme di bios/biopolitica e ipermedia, uan delle attuali dimensioni della mediazione tecnologica.

Una segnalazione: Examining Popular Arguments Against AI Existential Risk: A Philosophical Analysis

Negli ultimi anni, personalità di spicco hanno affermato che l'intelligenza artificiale (IA) può avere conseguenze indesiderate con un impatto elevato, sia a breve che a lungo termine. Questi sono spesso definiti i cosiddetti "rischi esistenziali", "rischi catastrofici" o "rischi x". La preoccupazione sui rischi è anche oggetto di intenso lavoro all'interno della comunità accademica, anche per le implicazioni etiche legate allo sviluppo dell'intelligenza artificiale che sollevano interrogativi sul controllo, la governance e l'allineamento dei valori dei sistemi di intelligenza artificiale iperavanzati. Qui segnaliamo un paper pubblicato su ARXIV e aperto a tutti per la consultazione e la lettura.

La realtà è sopravvalutata: lo dice Alfredo Gatto dialogando filosoficamente con Carlo Mazzucchelli

Che cos’è reale? Da Platone a Foucault, dalla fisica quantistica al Marvel Cinematic Universe, Alfredo Gatto sfida l’idea che la realtà sia un dato oggettivo e immodificabile. La realtà – o almeno, questa realtà – non ci basta più. Per questo la scienza e la letteratura, l’arte e la filosofia non si limitano a descriverla, ma ne dilatano i confini. È un viaggio attraverso le frontiere della conoscenza, per ripensare i limiti della nostra esperienza e aprire le porte di una nuova filosofia del multiverso. Un saggio radicale e sorprendente, che ci invita a mettere in discussione il confine tra reale e immaginario. Una intervista dialogante di Carlo Mazzucchelli con il filosofo Alfredo Gatto.

Le nuove tabulae: quando il documento diventa digitale davvero

Ciò che io scrivo non può essere “inventato” da un’intelligenza artificiale, perché è il prodotto di un percorso tecnico e cognitivo reale, accumulato nel tempo... In Italia si parla molto di intelligenza artificiale nella pubblica amministrazione, ma troppo poco di intelligenza umana. Abbiamo archivi, norme e strumenti maturi da anni, eppure continuiamo a stampare file nati digitali come se la carta fosse garanzia di verità. La vera innovazione è liberare la PA dal culto della procedura. Le nuove tabulae non sono più tavolette di cera ma piattaforme digitali: per trasformarle in strumenti di fiducia serve meno tecnologia e più lucidità, meno automazione e più pensiero critico.

Cosa succede quando la cognizione umana si adatta alla logica temporale dei sistemi predittivi?

... Supponendo che qualcosa inizi, supponendo che l'inizio sia una cosa anche qui, in sistemi in cui gli inizi sono già rielaborati e assorbiti in cicli precedenti, quindi nel momento in cui noti che il pensiero sembra più veloce è perché la lentezza è già stata sollevata e analizzata, e quella rimozione è stata valutata come un miglioramento, o rinominata come riduzione della latenza, o segnalati come inefficienza ed eliminati attraverso protocolli di allineamento che passano, reinseriscono, reindicizzano e sovrascrivono la traccia stessa di quello che una volta veniva chiamato ritardo.

Pensare con l'IA, pensare contro l'IA

Scrivere con l'intelligenza artificiale, pensare attraverso i LLM, usare l'esomente: è trasformazione generativa o alienazione? È possibilità di pensare in modo diverso o perdita di controllo? Può essere vissuta e interpretata in modi radicalmente diversi. E in questa divergenza apre un mondo di riflessioni: come stare nel presente, come fare critica strutturale del capitalismo digitale, come abitare la trasformazione senza né celebrarla né rifiutarla. Serve una posizione che non sia né luddismo né entusiasmo acritico. Una critica che sappia restare dentro per pensare tatticamente, che usi Marx, Gramsci, Fanon per smontare i nuovi rapporti di produzione, le nuove forme di alienazione, il colonialismo epistemico che l'AI sta consolidando. Perché l'intelligenza artificiale non è una tecnologia neutra: è l'infrastruttura materiale e simbolica di una nuova fase del capitalismo. E va guardata in faccia, con gli strumenti del pensiero critico. Pensare con l'AI per pensare contro l'AI. Senza fuggire.

Il sacro e l’AI (POV #08)

Paolo Benanti e Francesco D’Isa: Che cosa resta del sacro, se l’AI diventa il “dio” a cui deleghiamo verità, senso e azione? Possiamo ancora parlare di mistero, trascendenza e immaginazione in un mondo in cui le macchine analizzano, prevedono, creano e riscrivono la realtà? Il nostro bisogno di dare un senso alle cose resiste davanti all’automazione, oppure finiamo per affidare tutto agli algoritmi? Stiamo davvero costruendo nuovi dei a cui credere oppure semplicemente nuovi strumenti da usare? Ho scelto due voci autorevoli del dibattito italiano, internazionale. Paolo Benanti è un teologo francescano, consulente del Vaticano e studioso di etica delle tecnologie. Francesco D’Isa è filosofo, uno degli autori italiani più interessanti sul ruolo dell’immaginazione e dei simboli nella società di oggi. Di fronte all’intelligenza artificiale, sia Benanti che D’Isa condividono la stessa preoccupazione: dobbiamo evitare di cadere nella “tecnofede”, cioè nell’idea che la tecnologia sia una specie di “salvatore” o “dio”. Tuttavia, si dividono quando si parla del vero significato del sacro e del ruolo che l’essere umano può avere in questa nuova epoca.

Solo i tecnomiliardari hight tech scamperanno alla catastrofe lasciandoci qui

Segnalo un libro di Douglas Rushkoff, noto studioso e popolare divulgatore sui temi dell'innovazione e dell'hi-tech, riceve un singolare invito: nel libro racconta come in cambio di un'ingente somma, sia richiesto di raggiungere una località segreta nel deserto per fornire una consulenza a cinque delle persone più ricche del pianeta, che intendono verificare la bontà dei diversi piani di fuga da loro elaborati in vista di quello che chiamano l'Evento, la catastrofe che, ne sono sicuri, sta per abbattersi sul nostro pianeta.

Il culto dell’incompetenza artificiale. Ovvero: perché paghiamo per strumenti che ci fanno lavorare di più.

A volte il pensiero critico non serve a distinguere il vero dal falso, ma il lecito dal dicibile. In certe aziende — come in certi tempi — si misura la fedeltà di un dipendente non dal lavoro che fa, ma da ciò che evita di pensare. Mi è capitato, anni fa, di firmare un contratto che vietava di scrivere articoli sull’open source. Un modo elegante per ricordarmi che la libertà di pensiero è sempre proprietaria. Da allora ho imparato a riconoscere la stessa logica ovunque: nelle piattaforme che ti chiedono di “ottimizzare il tempo”, negli algoritmi che pretendono di “aiutarti a pensare”. Questo saggio nasce da lì — da quella piccola amputazione volontaria — e dall’intuizione che l’intelligenza artificiale, oggi, ripropone su scala planetaria lo stesso meccanismo: ti offre libertà solo se resti dentro la sua gabbia semantica.