NOVITA'[1196]
Scatole nere esimenti. Le intelligenze artificiali alla luce delle scienze umane
La cultura digitale, che ha nel concetto di Intelligenza Artificiale il suo emblema, appare una acritica articolazione della cultura STEM. Ciò che è è in grado di osservare lo sguardo delle scienze umane, e in particolare della sociologia, è in questo quadro ridotto all'irrilevanza. Invece, proprio lo sguardo sociologico permette di svelare ciò che si nasconde dietro l'immaginifico lessico che descrive e celebra la cosiddetta Digital Disruption. Non esiste in realtà nessuna rottura. Chiavi di lettura e vicende storiche di cent'anni fa appaiono la miglior via per descrivere il presente. L'informatica nasce come strumento per la gestione di sistemi politici e sociali totalmente organizzati. L'altra faccia dell'informatica -la computer science- appare l'estrema manifestazione del progetto logico-formale di ricerca dell'esattezza e di 'automazione della verità'. Nel clima libertario degli Anni Sessanta del secolo scorso appare però in scena un rovesciamento paradossale. Proprio tramite il codice digitale offerto dalla computazione, erede del logicismo; proprio tramite i computer, macchine progettate per assoggettare gli esseri umani al rispetto di un Libro delle Regole, abbiamo accesso allo sconfinato, sinistro, perturbante, spaesante -ma enormemente ricco- Web. Nel Web è impossibile separare nettamente le ‘credenze’ dalle ‘verità’. Ma sempre si tratta di conoscenze prodotte da esseri umani: Alles Material, tutto ciò che gli umani hanno scelto di conservare. Siamo così invitati a muoverci nella sterminata Rete privi di certezze, mossi, nella nostra ricerca di conoscenze da dunklen Ahnungen, oscure congetture. Una situazione esistenziale che non ci esime né da pericoli né dalla fatica implicita nel sondare l'ignoto, ma ci offre in cambio un esercizio di libertà e di responsabilità. Ciò che ci era difficile vedere, ciò che rimuovevamo, la macchina ci aiuta a vederlo. Con l'Intelligenza Artificiale Generativa questo spazio psichico e sociale torna ad essere negato. Una porzione arbitraria di ciò che il Web contiene è arbitrariamente estratta ed affidata ad una organizzazione interna regolata da algoritmi. Viene così costruita una scatola nera, le cui logiche interne -così prevede il progetto- sono destinate a restare occulte agli stessi progettisti del sistema. I progettisti, infatti, sono mossi dalla rimozione delle proprie pulsioni, dal tentativo di evitare la fatica del conoscersi e del conoscere. Affidano così il compito alla macchina. I problemi psichici dei progettisti si traducono in imposizione di regole ad ogni essere umano. Alla macchina dovranno essere chieste le risposte ad ogni domanda. Fin al punto che, si afferma, se la macchina non è in grado di rispondere, o fornisce risposte errate, ciò è dovuto ad un errore degli umani, incapaci di porre le domande corrette nel modo corretto. L'Intelligenza Artificiale Generativa, così, è un pallido velo che nasconde il ritorno di un'informatica strumento di dominio e di repressione istintuale. Ciò che avremmo potuto vedere, la macchina di esime dal cercare di vederlo.
Intervista ImPossibile a Ivan Illich (IIP #11)
La dipendenza da AI Qual è l’impatto dell’intelligenza artificiale sulla libertà individuale, sull’apprendimento, sul rapporto con il limite, sul corpo e sul futuro delle istituzioni? Per provare a rispondere, può essere utile tornare al pensiero di Ivan Illich (1926–2002), uno dei critici più lucidi della modernità. Storico, teologo e pedagogista, ha dedicato la sua vita a mostrare come molte istituzioni nate per aiutarci - la scuola, la medicina, l’economia industriale - abbiano finito per ridurre l’autonomia delle persone. Le sue opere principali, da Descolarizzare la società a La convivialità, da Nemesi medica a Energia ed equità, fino a Il genere e il sesso, hanno anticipato questioni oggi molto dibattute. Illich osservava che gli strumenti moderni, quando crescono senza limiti, diventano controproducenti. Invece di ampliare le capacità delle persone, le rendono dipendenti da servizi, professioni e apparati che si presentano come indispensabili. Secondo questa prospettiva, l’Intelligenza Artificiale non è soltanto una nuova tecnologia. Rappresenta il punto più avanzato di quella trasformazione che Illich descriveva come la tendenza degli strumenti a imporsi sulle persone, a definire ciò che è possibile fare e ciò che non lo è, a sostituire saperi e pratiche che un tempo erano parte della vita quotidiana. Per molti aspetti, l’“epilogo dell’età industriale” di cui parlava Illich è una condizione con cui ci confrontiamo ogni giorno.
Perché la coscienza funzionale diventerà centrale nello studio dell’IA
Nel discorso pubblico sull’intelligenza artificiale si è soliti oscillare tra due estremi: da una parte la fantasia di una coscienza delle macchine simile a quella umana, dall’altra la riduzione dell’IA a un insieme di processi statistici privi di profondità. Entrambe le posizioni, se prese isolatamente, risultano insufficienti a comprendere ciò che sta realmente accadendo nella ricerca contemporanea.
Etica, potere e responsabilità nell'infosfera (POV #11)
Il dibattito sull'impatto dell'Intelligenza Artificiale e del digitale sulla società, la politica e l'etica non è mai stato così urgente. Da un lato, Luciano Floridi, fondatore della Filosofia dell'Informazione e studioso dell'“infosfera”, offre un approccio pragmatico e costruttivista, incentrato sulla progettazione etica della nuova civiltà digitale. Dall'altro, Evgeny Morozov, sociologo e critico dei nuovi media, demolisce con scetticismo le promesse del "cyber-utopismo" e del "soluzionismo tecnologico". Per lui il rischio maggiore non è la tecnologia in sé, ma il potere che si concentra nelle mani di poche grandi aziende che possono influenzare economie, istituzioni e opinioni. Mettere a confronto questi due punti di vista - uno più costruttivo, l’altro più critico - aiuta a capire i tre punti decisivi della nostra epoca: l’etica di ciò che costruiamo, il potere di chi controlla gli strumenti, e la responsabilità di come li usiamo. Due visioni diverse, che insieme mostrano quanto sia necessario parlare seriamente di AI e del futuro che stiamo programmando.
Intervista ImPossibile a Aaron Swartz (IIP #10)
Se la conoscenza può essere manipolata o generata da sistemi di AI che non controlliamo, che cosa resta davvero della libertà di accedere all’informazione? Aaron Swartz (1986–2013) è stato programmatore, attivista, teorico dell’accesso libero alla conoscenza. Coautore delle licenze Creative Commons, creatore dell’RSS, fondatore di Reddit e di Demand Progress, ha trasformato la rete in un contesto politico, un laboratorio di giustizia e partecipazione, non di profitto. Nel 2008, nel monastero di un eremo italiano, scrisse il Guerrilla Open Access Manifesto, un testo breve, militante, un appello per “liberare” la conoscenza scientifica dalle regole del copyright. Oggi, nell’epoca in cui l’intelligenza artificiale rielabora e ridefinisce miliardi di dati - molti dei quali prodotti, condivisi o pagati da cittadini, ricercatori e comunità - chi controlla i dati controlla la realtà; chi controlla gli algoritmi controlla la sua interpretazione.
Fiction Factory. Romanzi automatici, autori deboli
Chi è l'autore? Molto è stato scritto a proposito di ciò che può essere detto, pensato e accettato come definizione dell'autore. Più che proporre rassegne di ciò che hanno scritto a proposito dell''autore' autori ai quali attribuiamo la patente di grandi autori, mi pare opportuno che ognuno si sbilanci verso il dire chi è secondo lui l'autore. E ancor più opportuno mi pare invitare ognuno a scoprire in sé l'autore. Purtroppo oggi, invece di seguire questa via, si preferisce guardare alle prestazioni di macchine che si vogliono considerare capaci di 'scrivere' tanto quanto, o meglio degli esseri umani. Un passo importante in questa direzione consiste nel criticare autori -come Italo C.- la cui autorità si dà di solito per scontata
Hanno davvero ragione (e c'è da fidarsi) ...
...di tutti quelli che chiedono più sicurezza, trasparenza e linee rosse per il controllo dell'Intelligenza Artificiale? "Riflessioni e consigli operativi sulle deleghe previste nella Legge Italiana sull'Intelligenza Artificiale n. 132/2025"
Prospettive trans-umanistiche nell’era dell’I.A
Il testo di quest’articolo riprende alcune parti del mio volume “Neoumanesimo e transumanesimo nell’era dell’I.A.” (Fotograf edizioni, Palermo, ISBN 978-88-97988-75-5) di recente pubblicazione.
Il lusso invisibile dell'AI. Ovvero: perché usare ChatGPT per scrivere un'e-mail è come andare dal fruttivendolo in elicottero
L'accessibilità ubiqua dei Large Language Models ha prodotto un paradosso: usiamo strumenti computazionalmente costosi con la stessa disinvoltura di un motore di ricerca, senza considerare la sproporzione tra il consumo energetico della richiesta e il valore informativo della risposta. La democratizzazione dell'accesso alla potenza computazionale, lungi dall'essere solo una conquista, comporta un rischio epistemologico: la progressiva perdita del "calibro cognitivo", ovvero della capacità di valutare preliminarmente la complessità di un problema e scegliere lo strumento appropriato. Esternalizzando questa valutazione all'IA, si innesca un loop di competenza in cui la delega perpetua genera ulteriore incapacità di discernimento.
Ğinn digitali, new era new prompt
Evocazioni invisibili
"Il problema non è l’intelligenza artificiale: basta usarla bene"
Quando si parla di tecnologia a scuola, sopratutto tra colleghi, è solo questione di tempo prima che qualcuno pronunci – con la massima determinazione – la seguente frase: “Il problema non è la tecnologia X. Basta usarla bene”. Analisi di una “catchphrase” di gran moda
L'AI e La Maledizione dell’Apprendista Stregone
Chiudete gli occhi. Sentite la musica? L'incalzare degli archi, la marcia inarrestabile di Paul Dukas. Vedete l'acqua salire, le scope moltiplicarsi senza sosta, e il panico puro sul volto di Topolino in Fantasia. L'Apprendista Stregone. È un'immagine che abbiamo impressa nella nostra cultura, potente, immediata. E oggi, sta diventando la metafora pigra, ma pericolosamente seducente, per descrivere il nostro rapporto con l'Intelligenza Artificiale. Proprio di recente, mi sono imbattuto in un articolo di Rivista.ai che evocava questa "Sindrome dell'Apprendista Stregone" in relazione all'IA. È un paragone facile: noi, gli apprendisti (sviluppatori, la società), abbiamo lanciato un incantesimo (l'IA generativa, i LLM) per un compito (automatizzare, creare, analizzare), e ora guardiamo con terrore la creazione sfuggirci di mano, moltiplicandosi in modi che non avevamo previsto e che non sappiamo come fermare. È una narrazione potente. Ma come ingegnere e, forse ancora di più, come umanista digitale, sento che questa metafora ci assolve troppo facilmente. Ci dipinge come vittime ingenue di una magia che non comprendiamo.
Potere in background: il ventre dell’algoritmo
Forse è il caso di domandarci cosa sta accadendo davvero dietro (o sotto) le quinte. A questo proposito: vale la pena leggere il numero 407 di Aut Aut (“Digito ergo sum. Indagini sul capitalismo digitale” del Settembre 2025).
Umanesimo e intelligenza artificiale
Questo è il testo, semplificato e abbreviato, della comunicazione che ho consegnato il 28 ottobre 2025 alla PUC-RS di Porto Alegre agli studenti di master e dottorato in discipline umanistiche accompagnati dai loro professori.
When Artificial Intelligence Breaks the Frame of Meaning
The threat from AI isn’t jobs; it’s the erosion of how humans decide what's real.
ChatGPT vuole fare sesso con te. E non è la notizia peggiore
Mi è capitato di leggere, in questi ultimi giorni, due documenti apparentemente distanti. Da un lato il paper "Assessing Risk Relative to Competitors: An Analysis of Current AI Company Policies" del Centre for the Governance of AI (ottobre 2025), dall'altro le analisi critiche di Sandra Bats pubblicate su Medium in merito all'annuncio di OpenAI di introdurre contenuti erotici in ChatGPT a partire da dicembre 2025. Non sono fenomeni separati. Sono manifestazioni dello stesso meccanismo: la privatizzazione della governance etica dell'AI attraverso dispositivi competitivi che si autolegittimano. E questo meccanismo non è un bug. È il sistema operativo del capitalismo algoritmico. Ho testato, sia pure sommariamente, la risposta dei diversi LLM ad una richiesta sessualmente esplicita e piuttosto stereotipata. Il fenomeno dell'escalation è già in atto.
Dall’occhio umano alla visione artificiale (POV #09)
Trevor Paglen e Lev Manovich: L’immagine può ancora dirsi un’esperienza umana o, con l’AI, la cultura visiva sta assumendo forme che prescindono dal nostro sguardo? La storia dell’immagine non si conclude con la fotografia. Con l’avvento dell’intelligenza artificiale, miliardi di immagini vengono generate, analizzate e archiviate senza alcun intervento o sguardo umano, non servono occhi per produrle, né spettatori per legittimarle. È su questo che si confrontano due voci autorevoli del dibattito contemporaneo: Trevor Paglen, artista e geografo che indaga le infrastrutture politico-militari della visione automatica, e Lev Manovich, teorico dei media digitali che interpreta l’immagine come dato, processo e linguaggio computazionale. Entrambi interrogano ciò che accade all’immagine quando il ruolo dell’osservatore umano non è più centrale, e a “guardare” sono soprattutto le macchine.
How to survive artificial intelligence
Intelligenza artificiale, tecnofascismo e guerra - Un saggio di Giorgio Griziotti
Una segnalazione: Examining Popular Arguments Against AI Existential Risk: A Philosophical Analysis
Negli ultimi anni, personalità di spicco hanno affermato che l'intelligenza artificiale (IA) può avere conseguenze indesiderate con un impatto elevato, sia a breve che a lungo termine. Questi sono spesso definiti i cosiddetti "rischi esistenziali", "rischi catastrofici" o "rischi x". La preoccupazione sui rischi è anche oggetto di intenso lavoro all'interno della comunità accademica, anche per le implicazioni etiche legate allo sviluppo dell'intelligenza artificiale che sollevano interrogativi sul controllo, la governance e l'allineamento dei valori dei sistemi di intelligenza artificiale iperavanzati. Qui segnaliamo un paper pubblicato su ARXIV e aperto a tutti per la consultazione e la lettura.
Il mito del saggio sull'intelligenza artificiale "eccellente"
La prosa dell'intelligenza artificiale scivola con la serenità di qualcosa che non ha mai dubitato di se stesso. Il pericolo non è che gli studenti che usano per i loro scritti l'aiuto di una IA presentino come proprio il suo lavoro, ma che gli insegnanti lo ammirino davvero.