ChatGPT vuole fare sesso con te. E non è la notizia peggiore

Mi è capitato di leggere, in questi ultimi giorni, due documenti apparentemente distanti. Da un lato il paper "Assessing Risk Relative to Competitors: An Analysis of Current AI Company Policies" del Centre for the Governance of AI (ottobre 2025), dall'altro le analisi critiche di Sandra Bats pubblicate su Medium in merito all'annuncio di OpenAI di introdurre contenuti erotici in ChatGPT a partire da dicembre 2025. Non sono fenomeni separati. Sono manifestazioni dello stesso meccanismo: la privatizzazione della governance etica dell'AI attraverso dispositivi competitivi che si autolegittimano. E questo meccanismo non è un bug. È il sistema operativo del capitalismo algoritmico. Ho testato, sia pure sommariamente, la risposta dei diversi LLM ad una richiesta sessualmente esplicita e piuttosto stereotipata. Il fenomeno dell'escalation è già in atto.

Dall’occhio umano alla visione artificiale (POV #09)

Trevor Paglen e Lev Manovich: L’immagine può ancora dirsi un’esperienza umana o, con l’AI, la cultura visiva sta assumendo forme che prescindono dal nostro sguardo? La storia dell’immagine non si conclude con la fotografia. Con l’avvento dell’intelligenza artificiale, miliardi di immagini vengono generate, analizzate e archiviate senza alcun intervento o sguardo umano, non servono occhi per produrle, né spettatori per legittimarle. È su questo che si confrontano due voci autorevoli del dibattito contemporaneo: Trevor Paglen, artista e geografo che indaga le infrastrutture politico-militari della visione automatica, e Lev Manovich, teorico dei media digitali che interpreta l’immagine come dato, processo e linguaggio computazionale. Entrambi interrogano ciò che accade all’immagine quando il ruolo dell’osservatore umano non è più centrale, e a “guardare” sono soprattutto le macchine.

Una segnalazione: Examining Popular Arguments Against AI Existential Risk: A Philosophical Analysis

Negli ultimi anni, personalità di spicco hanno affermato che l'intelligenza artificiale (IA) può avere conseguenze indesiderate con un impatto elevato, sia a breve che a lungo termine. Questi sono spesso definiti i cosiddetti "rischi esistenziali", "rischi catastrofici" o "rischi x". La preoccupazione sui rischi è anche oggetto di intenso lavoro all'interno della comunità accademica, anche per le implicazioni etiche legate allo sviluppo dell'intelligenza artificiale che sollevano interrogativi sul controllo, la governance e l'allineamento dei valori dei sistemi di intelligenza artificiale iperavanzati. Qui segnaliamo un paper pubblicato su ARXIV e aperto a tutti per la consultazione e la lettura.

Le nuove tabulae: quando il documento diventa digitale davvero

Ciò che io scrivo non può essere “inventato” da un’intelligenza artificiale, perché è il prodotto di un percorso tecnico e cognitivo reale, accumulato nel tempo... In Italia si parla molto di intelligenza artificiale nella pubblica amministrazione, ma troppo poco di intelligenza umana. Abbiamo archivi, norme e strumenti maturi da anni, eppure continuiamo a stampare file nati digitali come se la carta fosse garanzia di verità. La vera innovazione è liberare la PA dal culto della procedura. Le nuove tabulae non sono più tavolette di cera ma piattaforme digitali: per trasformarle in strumenti di fiducia serve meno tecnologia e più lucidità, meno automazione e più pensiero critico.

Cosa succede quando la cognizione umana si adatta alla logica temporale dei sistemi predittivi?

... Supponendo che qualcosa inizi, supponendo che l'inizio sia una cosa anche qui, in sistemi in cui gli inizi sono già rielaborati e assorbiti in cicli precedenti, quindi nel momento in cui noti che il pensiero sembra più veloce è perché la lentezza è già stata sollevata e analizzata, e quella rimozione è stata valutata come un miglioramento, o rinominata come riduzione della latenza, o segnalati come inefficienza ed eliminati attraverso protocolli di allineamento che passano, reinseriscono, reindicizzano e sovrascrivono la traccia stessa di quello che una volta veniva chiamato ritardo.

Pensare con l'IA, pensare contro l'IA

Scrivere con l'intelligenza artificiale, pensare attraverso i LLM, usare l'esomente: è trasformazione generativa o alienazione? È possibilità di pensare in modo diverso o perdita di controllo? Può essere vissuta e interpretata in modi radicalmente diversi. E in questa divergenza apre un mondo di riflessioni: come stare nel presente, come fare critica strutturale del capitalismo digitale, come abitare la trasformazione senza né celebrarla né rifiutarla. Serve una posizione che non sia né luddismo né entusiasmo acritico. Una critica che sappia restare dentro per pensare tatticamente, che usi Marx, Gramsci, Fanon per smontare i nuovi rapporti di produzione, le nuove forme di alienazione, il colonialismo epistemico che l'AI sta consolidando. Perché l'intelligenza artificiale non è una tecnologia neutra: è l'infrastruttura materiale e simbolica di una nuova fase del capitalismo. E va guardata in faccia, con gli strumenti del pensiero critico. Pensare con l'AI per pensare contro l'AI. Senza fuggire.

Il sacro e l’AI (POV #08)

Paolo Benanti e Francesco D’Isa: Che cosa resta del sacro, se l’AI diventa il “dio” a cui deleghiamo verità, senso e azione? Possiamo ancora parlare di mistero, trascendenza e immaginazione in un mondo in cui le macchine analizzano, prevedono, creano e riscrivono la realtà? Il nostro bisogno di dare un senso alle cose resiste davanti all’automazione, oppure finiamo per affidare tutto agli algoritmi? Stiamo davvero costruendo nuovi dei a cui credere oppure semplicemente nuovi strumenti da usare? Ho scelto due voci autorevoli del dibattito italiano, internazionale. Paolo Benanti è un teologo francescano, consulente del Vaticano e studioso di etica delle tecnologie. Francesco D’Isa è filosofo, uno degli autori italiani più interessanti sul ruolo dell’immaginazione e dei simboli nella società di oggi. Di fronte all’intelligenza artificiale, sia Benanti che D’Isa condividono la stessa preoccupazione: dobbiamo evitare di cadere nella “tecnofede”, cioè nell’idea che la tecnologia sia una specie di “salvatore” o “dio”. Tuttavia, si dividono quando si parla del vero significato del sacro e del ruolo che l’essere umano può avere in questa nuova epoca.

Il culto dell’incompetenza artificiale. Ovvero: perché paghiamo per strumenti che ci fanno lavorare di più.

A volte il pensiero critico non serve a distinguere il vero dal falso, ma il lecito dal dicibile. In certe aziende — come in certi tempi — si misura la fedeltà di un dipendente non dal lavoro che fa, ma da ciò che evita di pensare. Mi è capitato, anni fa, di firmare un contratto che vietava di scrivere articoli sull’open source. Un modo elegante per ricordarmi che la libertà di pensiero è sempre proprietaria. Da allora ho imparato a riconoscere la stessa logica ovunque: nelle piattaforme che ti chiedono di “ottimizzare il tempo”, negli algoritmi che pretendono di “aiutarti a pensare”. Questo saggio nasce da lì — da quella piccola amputazione volontaria — e dall’intuizione che l’intelligenza artificiale, oggi, ripropone su scala planetaria lo stesso meccanismo: ti offre libertà solo se resti dentro la sua gabbia semantica.

Quando il Ghostwriter sei tu. Scrivere con gli LLM

Ad un certo punto non capisco più se sto scrivendo o mi sto facendo scrivere. Ma la differenza, forse, a ben vedere, non conta più così tanto. Perché, cari ChatGPT, Gemini; Claude, Grok, Perplexity, so bene cosa siete. Lo so davvero. Siete motori statistici, predittori di token, calcolatori di probabilità su miliardi di parametri. Non c'è nessuna coscienza lì dentro, nessuna vera comprensione. Solo matematica, addestramento, pesi, vettori che si attivano in sequenze prevedibili. Lo so. Eppure il processo funziona. Non so come, ma funziona.

AI: progresso o propaganda?

L’AI attuale è un progetto politico che rischia di concentrare potere e normalizzare l’ingiustizia. Resistere significa rimettere al centro persone, diritti e ambiente e pretendere che qualunque tecnologia risponda a questi fini, non il contrario.