Tecnologia, IA e Macchine
Intervista ImPossibile a Ivan Illich (IIP #11)
La dipendenza da AI Qual è l’impatto dell’intelligenza artificiale sulla libertà individuale, sull’apprendimento, sul rapporto con il limite, sul corpo e sul futuro delle istituzioni? Per provare a rispondere, può essere utile tornare al pensiero di Ivan Illich (1926–2002), uno dei critici più lucidi della modernità. Storico, teologo e pedagogista, ha dedicato la sua vita a mostrare come molte istituzioni nate per aiutarci - la scuola, la medicina, l’economia industriale - abbiano finito per ridurre l’autonomia delle persone. Le sue opere principali, da Descolarizzare la società a La convivialità, da Nemesi medica a Energia ed equità, fino a Il genere e il sesso, hanno anticipato questioni oggi molto dibattute. Illich osservava che gli strumenti moderni, quando crescono senza limiti, diventano controproducenti. Invece di ampliare le capacità delle persone, le rendono dipendenti da servizi, professioni e apparati che si presentano come indispensabili. Secondo questa prospettiva, l’Intelligenza Artificiale non è soltanto una nuova tecnologia. Rappresenta il punto più avanzato di quella trasformazione che Illich descriveva come la tendenza degli strumenti a imporsi sulle persone, a definire ciò che è possibile fare e ciò che non lo è, a sostituire saperi e pratiche che un tempo erano parte della vita quotidiana. Per molti aspetti, l’“epilogo dell’età industriale” di cui parlava Illich è una condizione con cui ci confrontiamo ogni giorno.
What Is It Like to Be a Transformer?
Ovvero: come ho imparato a non preoccuparmi e ad amare la filosofia dei termosifoni
La Sindrome del Criceto Hi-Tech
Lo spirito di questi tempi è figlio di Troia
Un esercizio di archeologia del pensiero nel tempo dell’intelligenza artificiale
Perché la coscienza funzionale diventerà centrale nello studio dell’IA
Nel discorso pubblico sull’intelligenza artificiale si è soliti oscillare tra due estremi: da una parte la fantasia di una coscienza delle macchine simile a quella umana, dall’altra la riduzione dell’IA a un insieme di processi statistici privi di profondità. Entrambe le posizioni, se prese isolatamente, risultano insufficienti a comprendere ciò che sta realmente accadendo nella ricerca contemporanea.
Etica, potere e responsabilità nell'infosfera (POV #11)
Il dibattito sull'impatto dell'Intelligenza Artificiale e del digitale sulla società, la politica e l'etica non è mai stato così urgente. Da un lato, Luciano Floridi, fondatore della Filosofia dell'Informazione e studioso dell'“infosfera”, offre un approccio pragmatico e costruttivista, incentrato sulla progettazione etica della nuova civiltà digitale. Dall'altro, Evgeny Morozov, sociologo e critico dei nuovi media, demolisce con scetticismo le promesse del "cyber-utopismo" e del "soluzionismo tecnologico". Per lui il rischio maggiore non è la tecnologia in sé, ma il potere che si concentra nelle mani di poche grandi aziende che possono influenzare economie, istituzioni e opinioni. Mettere a confronto questi due punti di vista - uno più costruttivo, l’altro più critico - aiuta a capire i tre punti decisivi della nostra epoca: l’etica di ciò che costruiamo, il potere di chi controlla gli strumenti, e la responsabilità di come li usiamo. Due visioni diverse, che insieme mostrano quanto sia necessario parlare seriamente di AI e del futuro che stiamo programmando.
Quando l’AI non sa fare le parole crociate: note sparse su un fallimento istruttivo
Note sparse, appunto. Sabato è giorno buono per riflessioni leggere su questioni pesanti. Un po’ come l’enigmistica: gioco di superficie che nasconde strutture. Solo che i modelli vedono solo pattern - e nemmeno quelli giusti, a quanto pare.
Intervista ImPossibile a Aaron Swartz (IIP #10)
Se la conoscenza può essere manipolata o generata da sistemi di AI che non controlliamo, che cosa resta davvero della libertà di accedere all’informazione? Aaron Swartz (1986–2013) è stato programmatore, attivista, teorico dell’accesso libero alla conoscenza. Coautore delle licenze Creative Commons, creatore dell’RSS, fondatore di Reddit e di Demand Progress, ha trasformato la rete in un contesto politico, un laboratorio di giustizia e partecipazione, non di profitto. Nel 2008, nel monastero di un eremo italiano, scrisse il Guerrilla Open Access Manifesto, un testo breve, militante, un appello per “liberare” la conoscenza scientifica dalle regole del copyright. Oggi, nell’epoca in cui l’intelligenza artificiale rielabora e ridefinisce miliardi di dati - molti dei quali prodotti, condivisi o pagati da cittadini, ricercatori e comunità - chi controlla i dati controlla la realtà; chi controlla gli algoritmi controlla la sua interpretazione.
Fiction Factory. Romanzi automatici, autori deboli
Chi è l'autore? Molto è stato scritto a proposito di ciò che può essere detto, pensato e accettato come definizione dell'autore. Più che proporre rassegne di ciò che hanno scritto a proposito dell''autore' autori ai quali attribuiamo la patente di grandi autori, mi pare opportuno che ognuno si sbilanci verso il dire chi è secondo lui l'autore. E ancor più opportuno mi pare invitare ognuno a scoprire in sé l'autore. Purtroppo oggi, invece di seguire questa via, si preferisce guardare alle prestazioni di macchine che si vogliono considerare capaci di 'scrivere' tanto quanto, o meglio degli esseri umani. Un passo importante in questa direzione consiste nel criticare autori -come Italo C.- la cui autorità si dà di solito per scontata
Hanno davvero ragione (e c'è da fidarsi) ...
...di tutti quelli che chiedono più sicurezza, trasparenza e linee rosse per il controllo dell'Intelligenza Artificiale? "Riflessioni e consigli operativi sulle deleghe previste nella Legge Italiana sull'Intelligenza Artificiale n. 132/2025"
Prospettive trans-umanistiche nell’era dell’I.A
Il testo di quest’articolo riprende alcune parti del mio volume “Neoumanesimo e transumanesimo nell’era dell’I.A.” (Fotograf edizioni, Palermo, ISBN 978-88-97988-75-5) di recente pubblicazione.
Il lusso invisibile dell'AI. Ovvero: perché usare ChatGPT per scrivere un'e-mail è come andare dal fruttivendolo in elicottero
L'accessibilità ubiqua dei Large Language Models ha prodotto un paradosso: usiamo strumenti computazionalmente costosi con la stessa disinvoltura di un motore di ricerca, senza considerare la sproporzione tra il consumo energetico della richiesta e il valore informativo della risposta. La democratizzazione dell'accesso alla potenza computazionale, lungi dall'essere solo una conquista, comporta un rischio epistemologico: la progressiva perdita del "calibro cognitivo", ovvero della capacità di valutare preliminarmente la complessità di un problema e scegliere lo strumento appropriato. Esternalizzando questa valutazione all'IA, si innesca un loop di competenza in cui la delega perpetua genera ulteriore incapacità di discernimento.
GLI ALGORITMI APPLICATI DAI SOCIAL
Un social network è un semplicissimo sito internet. In un sito internet, milioni di utenti possono accedere alle pagine pubblicate ed interagire attivamente coi contenuti.
Ğinn digitali, new era new prompt
Evocazioni invisibili
"Il problema non è l’intelligenza artificiale: basta usarla bene"
Quando si parla di tecnologia a scuola, sopratutto tra colleghi, è solo questione di tempo prima che qualcuno pronunci – con la massima determinazione – la seguente frase: “Il problema non è la tecnologia X. Basta usarla bene”. Analisi di una “catchphrase” di gran moda
Tempo, memoria e alienazione nell’era digitale (POV #10)
Hartmut Rosa e Franco “Bifo” Berardi: Il tempo che viviamo è ancora nostro o è già delle macchine? Viviamo in un’epoca che corre più veloce della nostra capacità di comprenderla. Le macchine non si limitano più a potenziare le nostre capacità: hanno trasformato il ritmo stesso dell’esistenza. Il risultato è uno scarto crescente tra la velocità del mondo e la lentezza interiore dell’essere umano, intrappolato in un presente che non concede pause né occasioni di approfondimento. Su questo si confrontano due autori del pensiero europeo contemporaneo, Hartmut Rosa e Franco “Bifo” Berardi. Rosa, sociologo tedesco, legge la modernità come un regime di accelerazione totale che investe la tecnologia, la comunicazione, il lavoro e perfino le relazioni affettive. Il suo antidoto è la risonanza, una forma di riconnessione con il mondo, un modo per tornare a sentire e vivere il tempo, non solo a misurarlo. Berardi, filosofo e attivista italiano, parte dallo stesso punto di partenza ma ne scaturisce un pensiero. La società digitale ha spinto l’attenzione e l’emotività umane oltre il limite biologico. La salvezza non sta nel rallentare il mondo, ma nel rallentare noi stessi, nel coltivare una lentezza affettiva che restituisca alla sensibilità il suo valore sovversivo. Entrambi parlano dello stesso male, la perdita di esperienza. In un tempo dominato dal flusso continuo di stimoli, informazioni e automatismi, non abbiamo più lo spazio necessario per trasformare ciò che viviamo in memoria, pensiero, significato.
L'AI e La Maledizione dell’Apprendista Stregone
Chiudete gli occhi. Sentite la musica? L'incalzare degli archi, la marcia inarrestabile di Paul Dukas. Vedete l'acqua salire, le scope moltiplicarsi senza sosta, e il panico puro sul volto di Topolino in Fantasia. L'Apprendista Stregone. È un'immagine che abbiamo impressa nella nostra cultura, potente, immediata. E oggi, sta diventando la metafora pigra, ma pericolosamente seducente, per descrivere il nostro rapporto con l'Intelligenza Artificiale. Proprio di recente, mi sono imbattuto in un articolo di Rivista.ai che evocava questa "Sindrome dell'Apprendista Stregone" in relazione all'IA. È un paragone facile: noi, gli apprendisti (sviluppatori, la società), abbiamo lanciato un incantesimo (l'IA generativa, i LLM) per un compito (automatizzare, creare, analizzare), e ora guardiamo con terrore la creazione sfuggirci di mano, moltiplicandosi in modi che non avevamo previsto e che non sappiamo come fermare. È una narrazione potente. Ma come ingegnere e, forse ancora di più, come umanista digitale, sento che questa metafora ci assolve troppo facilmente. Ci dipinge come vittime ingenue di una magia che non comprendiamo.
Potere in background: il ventre dell’algoritmo
Forse è il caso di domandarci cosa sta accadendo davvero dietro (o sotto) le quinte. A questo proposito: vale la pena leggere il numero 407 di Aut Aut (“Digito ergo sum. Indagini sul capitalismo digitale” del Settembre 2025).
Umanesimo e intelligenza artificiale
Questo è il testo, semplificato e abbreviato, della comunicazione che ho consegnato il 28 ottobre 2025 alla PUC-RS di Porto Alegre agli studenti di master e dottorato in discipline umanistiche accompagnati dai loro professori.
When Artificial Intelligence Breaks the Frame of Meaning
The threat from AI isn’t jobs; it’s the erosion of how humans decide what's real.