Tecnologia e Intelligenze (Umane, Artificiali, Collettive)
Lo humano no automatizable: Cuando la creatividad deja de necesitar humanos
Tal vez lo humano no sea lo que produce mejor lenguaje, ni lo que genera más imágenes, ni lo que optimiza más rápido. Tal vez lo humano empiece justo donde la automatización se detiene.
Ciò che dovrebbe rimanere segreto e nascosto e che invece viene alla luce
Freud ci parla di ciò che alberga in noi, ma vorremmo non ci fosse. Unheimlich, perturbante, inquiétante étrangeté, Uncanny, Unhomely, lo siniestro, lo ominoso, o infamiliar. Locus suspectus, intempesta nocte. Freud ci mostra un cammino, sia pur difficile, per combattere la paura che tutto questo affiori. Ci dice che solo accettando l'esistenza di questo inquietante possiamo conoscere noi stessi e quindi il mondo. Ma le nostre paure ci spingono a cercare una alternativa: costruire macchine -scatole nere- destinate a contenere l'inquietante.
WWW: Il web è una cosa strana
La verità (la praxia conduce alla verità) è che navigare (necesse est navigare) è diventato un dramma (anticipazione pragmatica dell'ultimo verso), se non attaccate all'USB del PC il cavo dell'elettroencefalografo (ironia pragmatica, non antifrastica), cioè se non fate funzionare il cervello, chi non ha intuito che il www sia divenuto un «symbolic outlet» (Bauman, con inversione sociologica distopica dei concetti utopici di «emotional outlet» e «creative outlets» di Barbara Fredrickson o Lisa Feldman Barrett), cioè una no-where zone in cui l'homo consumericius lipovetskyiano, riesca, con continui «sfoghi simbolici», a soddisfare l'eterna insoddisfazione del desiderio, sia condannato a osservare - come un anatomopatologo- la rete (web/rete da tennis [net]), inter-net, come Boris Beckett (onomastic portmanteau pragmatico), cioè Boris Becker/Samuel Beckett, en attendant Godot (in ethernet).
Offuscati dalle meraviglie tecnologiche abbiamo dimenticato come imparare
Segnalazione di un articolo di Esther Paniagua, esperta di tecnologia, comparso sul periodico EL PAÍS il 19 dicembre 2025
“Il problema non è l’intelligenza artificiale: basta usarla bene”
Analisi di una “catchphrase” di gran moda Quando si parla di tecnologia a scuola, sopratutto tra colleghi, è solo questione di tempo prima che qualcuno pronunci – con la massima determinazione – la seguente frase: “Il problema non è la tecnologia X. Basta usarla bene”.
O Medo da IA e o Fim do Monopólio da História
La paura del cosiddetto "establishment" (vecchi media, accademia tradizionale, ecc.) non è che ci facciamo ingannare da un robot. La loro paura è che, con l'aiuto della macchina, scopriremo di essere stati ingannati dagli esseri umani per tutto questo tempo.
Dove finiranno i siti web nell’era della Tecnolog-IA e delle macchine?
Uno dei dibattiti minori, per me più interessanti e curiosi del momento, sulle tante trasformazioni indotte dalla rivoluzione delle intelligenze artificiali generative è su che fine faranno i siti web, ora che i motori di ricerca, per soddisfare i loro bulimici bisogni di contenuti, di risorse e di guadagno, sono obbligati a cambiare modelli di business, algoritmi, logiche operative e funzionali, a causa del collasso di click che stanno sperimentando. Un collasso che sembra lento ma che potrebbe trovare una rapida e forte accelerazione nel breve tempo.
Intervista ImPossibile a Alan Turing (IIP #15)
I limiti dell’intelligenza Alan M. Turing non ha mai cercato di definire l’intelligenza in senso astratto. Non gli interessava stabilire che cosa sia il pensiero, ma capire come si manifesta, quali condizioni operative lo rendono osservabile, discutibile, misurabile.
Ci siamo impantanati…anche con e grazie alle IA
Viviamo l’era delle macchine, della tecnolog-IA, della palude digitale. Ci sentiamo immersi in questa realtà, sempre coinvolti, in realtà vi siamo dentro, esistenzialmente impantanati. Ne deriva un senso di immobilità (si corre rimanendo sullo stesso posto), bloccati dentro un presente continuo che ha catturato la nostra attenzione, ci ha intorpidito la mente, bloccandoci dentro bolle cognitive, mettendoci al servizio di algoritmi che ci impediscono di pensare (doomscrolling), di fare delle scelte, di coltivare pensiero e immaginazione.
Intelligenza sferica: appunti sparsi su come essere geniali e insopportabili
Stavo riordinando alcuni appunti scritti a mano — quelli che tutti accumuliamo tra letture, conversazioni, intuizioni mattutine e ossessioni notturne — quando mi sono reso conto che diversi frammenti apparentemente scollegati parlavano, in fondo, della stessa cosa. Intelligenza. Non quella misurata dai test, non quella certificata dalle università, non quella celebrata dalle conferenze TED. Un'altra intelligenza: quella scomoda, quella che vede pattern dove gli altri vedono caos, quella che ha ragione troppo presto, quella che ti fa odiare dalle persone giuste. Ho deciso di tentare un esperimento: intrecciare questi appunti in un unico flusso, senza la pretesa di costruire un saggio organico ma con la curiosità di vedere se le connessioni emergessero da sole. Come quando lasci cadere limatura di ferro su un foglio e sotto ci passi una calamita: le forme appaiono, rivelando campi invisibili. Esperimento riuscito? Chi lo sa. Ma forse proprio questa incertezza fa parte del punto.
Il Biscotto Quantico
Un breve racconto pre natalizio nato da una riflessione sul tema della trasparenza dei dati di addestramento dei LLM commerciali. Come si sa, oggi come oggi, nessuno sa con esattezza che dati abbiano usato OpenAi per addestrare ChatGPT, Anthropic per Claude, Google per Gemini. Che importa, si dirà. Importa, importa. Quei dati, la loro composizione, culturale, linguistica, epidemica, condizionano il modo in cui i LLM ci parlano, rispondono, costruiscono "opinione" spacciandola per conoscenza. Conoscere la composizione dei dati di addestramento è quindi questione di democrazia. Buona lettura.
Defezione digitale e controllo algoritmico: filosofia della resistenza ai social network
Dopo ventidue anni e sei blocchi algoritmici in dodici mesi, ho chiuso il mio account su un importante social network professionale. Non si è trattato di un gesto impulsivo ma dell'esito necessario di un processo di erosione della possibilità stessa di dialogo autentico. Questa riflessione parte da un'esperienza personale per interrogare filosoficamente il controllo algoritmico, l'estrazione di valore dalle piattaforme digitali, e la possibilità di resistenza. Tra Foucault, Hirschman e Deleuze, esploro tre grammatiche della resistenza e propongo la defezione come atto politico consapevole in un'epoca di capitalismo della sorveglianza.
L'AI è profondamente Antidemocratica
L'IA non è il futuro, è un furto mascherato da innovazione. Il capitale finanziario sta privatizzando la nostra conoscenza pubblica. È un colpo di stato silenzioso, legale sulla carta, disumano nella sostanza. Consapevolezza critica o schiavitù algoritmica? Ora tocca a te scegliere.
Che senso ha per il gelso fare i frutti a ottobre?
Gli alberi hanno la loro intelligenza e investono continuamente nelle proprie risorse perché da esse dipende la loro sopravvivenza. Noi possiamo prendere il loro esempio, concentrandosi con serenità sul presente e non con la paura sul futuro.
Wakanda e il futuro che vogliamo. Dati, diritti, energia pulita
di Luca sesini e Beppe Carrella
Il lusso invisibile dell'AI. Ovvero: perché usare ChatGPT per scrivere un'e-mail è come andare dal fruttivendolo in elicottero
L'accessibilità ubiqua dei Large Language Models ha prodotto un paradosso: usiamo strumenti computazionalmente costosi con la stessa disinvoltura di un motore di ricerca, senza considerare la sproporzione tra il consumo energetico della richiesta e il valore informativo della risposta. La democratizzazione dell'accesso alla potenza computazionale, lungi dall'essere solo una conquista, comporta un rischio epistemologico: la progressiva perdita del "calibro cognitivo", ovvero della capacità di valutare preliminarmente la complessità di un problema e scegliere lo strumento appropriato. Esternalizzando questa valutazione all'IA, si innesca un loop di competenza in cui la delega perpetua genera ulteriore incapacità di discernimento.
Ğinn digitali, new era new prompt
Evocazioni invisibili
"Il problema non è l’intelligenza artificiale: basta usarla bene"
Quando si parla di tecnologia a scuola, sopratutto tra colleghi, è solo questione di tempo prima che qualcuno pronunci – con la massima determinazione – la seguente frase: “Il problema non è la tecnologia X. Basta usarla bene”. Analisi di una “catchphrase” di gran moda
Intervista ImPossibile a Stanley Kubrick (IIP #09)
AI, potere e fine dell’umano Come leggere l’intelligenza artificiale attraverso lo sguardo di Stanley Kubrick? Stanley Kubrick (1928–1999), regista, sceneggiatore e fotografo, è stato uno dei più lucidi interpreti del rapporto tra essere umano, potere e tecnologia. La sua opera ha raccontato il Novecento come un laboratorio di controllo e alienazione, ma anche come una tensione costante verso il mistero e l’insondabile. Da 2001: Odissea nello spazio a Arancia meccanica, da Shining a Full Metal Jacket, Kubrick ha osservato l’essere umano nel momento in cui la tecnica smette di essere strumento e diventa habitat, quando la macchina si fa specchio del suo creatore. Il suo cinema non immagina il futuro, lo interroga. Ogni film è un esperimento morale che indaga i limiti della ragione, la fragilità della coscienza e l’impossibilità di separare l’etica dalla conoscenza.
ChatGPT vuole fare sesso con te. E non è la notizia peggiore
Mi è capitato di leggere, in questi ultimi giorni, due documenti apparentemente distanti. Da un lato il paper "Assessing Risk Relative to Competitors: An Analysis of Current AI Company Policies" del Centre for the Governance of AI (ottobre 2025), dall'altro le analisi critiche di Sandra Bats pubblicate su Medium in merito all'annuncio di OpenAI di introdurre contenuti erotici in ChatGPT a partire da dicembre 2025. Non sono fenomeni separati. Sono manifestazioni dello stesso meccanismo: la privatizzazione della governance etica dell'AI attraverso dispositivi competitivi che si autolegittimano. E questo meccanismo non è un bug. È il sistema operativo del capitalismo algoritmico. Ho testato, sia pure sommariamente, la risposta dei diversi LLM ad una richiesta sessualmente esplicita e piuttosto stereotipata. Il fenomeno dell'escalation è già in atto.