Intervista ImPossibile a Ivan Illich (IIP #11)

La dipendenza da AI Qual è l’impatto dell’intelligenza artificiale sulla libertà individuale, sull’apprendimento, sul rapporto con il limite, sul corpo e sul futuro delle istituzioni? Per provare a rispondere, può essere utile tornare al pensiero di Ivan Illich (1926–2002), uno dei critici più lucidi della modernità. Storico, teologo e pedagogista, ha dedicato la sua vita a mostrare come molte istituzioni nate per aiutarci - la scuola, la medicina, l’economia industriale - abbiano finito per ridurre l’autonomia delle persone. Le sue opere principali, da Descolarizzare la società a La convivialità, da Nemesi medica a Energia ed equità, fino a Il genere e il sesso, hanno anticipato questioni oggi molto dibattute. Illich osservava che gli strumenti moderni, quando crescono senza limiti, diventano controproducenti. Invece di ampliare le capacità delle persone, le rendono dipendenti da servizi, professioni e apparati che si presentano come indispensabili. Secondo questa prospettiva, l’Intelligenza Artificiale non è soltanto una nuova tecnologia. Rappresenta il punto più avanzato di quella trasformazione che Illich descriveva come la tendenza degli strumenti a imporsi sulle persone, a definire ciò che è possibile fare e ciò che non lo è, a sostituire saperi e pratiche che un tempo erano parte della vita quotidiana. Per molti aspetti, l’“epilogo dell’età industriale” di cui parlava Illich è una condizione con cui ci confrontiamo ogni giorno.

Perché la coscienza funzionale diventerà centrale nello studio dell’IA

Nel discorso pubblico sull’intelligenza artificiale si è soliti oscillare tra due estremi: da una parte la fantasia di una coscienza delle macchine simile a quella umana, dall’altra la riduzione dell’IA a un insieme di processi statistici privi di profondità. Entrambe le posizioni, se prese isolatamente, risultano insufficienti a comprendere ciò che sta realmente accadendo nella ricerca contemporanea.

Etica, potere e responsabilità nell'infosfera (POV #11)

Il dibattito sull'impatto dell'Intelligenza Artificiale e del digitale sulla società, la politica e l'etica non è mai stato così urgente. Da un lato, Luciano Floridi, fondatore della Filosofia dell'Informazione e studioso dell'“infosfera”, offre un approccio pragmatico e costruttivista, incentrato sulla progettazione etica della nuova civiltà digitale. Dall'altro, Evgeny Morozov, sociologo e critico dei nuovi media, demolisce con scetticismo le promesse del "cyber-utopismo" e del "soluzionismo tecnologico". Per lui il rischio maggiore non è la tecnologia in sé, ma il potere che si concentra nelle mani di poche grandi aziende che possono influenzare economie, istituzioni e opinioni. Mettere a confronto questi due punti di vista - uno più costruttivo, l’altro più critico - aiuta a capire i tre punti decisivi della nostra epoca: l’etica di ciò che costruiamo, il potere di chi controlla gli strumenti, e la responsabilità di come li usiamo. Due visioni diverse, che insieme mostrano quanto sia necessario parlare seriamente di AI e del futuro che stiamo programmando.

Intervista ImPossibile a Aaron Swartz (IIP #10)

Se la conoscenza può essere manipolata o generata da sistemi di AI che non controlliamo, che cosa resta davvero della libertà di accedere all’informazione? Aaron Swartz (1986–2013) è stato programmatore, attivista, teorico dell’accesso libero alla conoscenza. Coautore delle licenze Creative Commons, creatore dell’RSS, fondatore di Reddit e di Demand Progress, ha trasformato la rete in un contesto politico, un laboratorio di giustizia e partecipazione, non di profitto. Nel 2008, nel monastero di un eremo italiano, scrisse il Guerrilla Open Access Manifesto, un testo breve, militante, un appello per “liberare” la conoscenza scientifica dalle regole del copyright. Oggi, nell’epoca in cui l’intelligenza artificiale rielabora e ridefinisce miliardi di dati - molti dei quali prodotti, condivisi o pagati da cittadini, ricercatori e comunità - chi controlla i dati controlla la realtà; chi controlla gli algoritmi controlla la sua interpretazione.

Fiction Factory. Romanzi automatici, autori deboli

Chi è l'autore? Molto è stato scritto a proposito di ciò che può essere detto, pensato e accettato come definizione dell'autore. Più che proporre rassegne di ciò che hanno scritto a proposito dell''autore' autori ai quali attribuiamo la patente di grandi autori, mi pare opportuno che ognuno si sbilanci verso il dire chi è secondo lui l'autore. E ancor più opportuno mi pare invitare ognuno a scoprire in sé l'autore. Purtroppo oggi, invece di seguire questa via, si preferisce guardare alle prestazioni di macchine che si vogliono considerare capaci di 'scrivere' tanto quanto, o meglio degli esseri umani. Un passo importante in questa direzione consiste nel criticare autori -come Italo C.- la cui autorità si dà di solito per scontata

Il lusso invisibile dell'AI. Ovvero: perché usare ChatGPT per scrivere un'e-mail è come andare dal fruttivendolo in elicottero

L'accessibilità ubiqua dei Large Language Models ha prodotto un paradosso: usiamo strumenti computazionalmente costosi con la stessa disinvoltura di un motore di ricerca, senza considerare la sproporzione tra il consumo energetico della richiesta e il valore informativo della risposta. La democratizzazione dell'accesso alla potenza computazionale, lungi dall'essere solo una conquista, comporta un rischio epistemologico: la progressiva perdita del "calibro cognitivo", ovvero della capacità di valutare preliminarmente la complessità di un problema e scegliere lo strumento appropriato. Esternalizzando questa valutazione all'IA, si innesca un loop di competenza in cui la delega perpetua genera ulteriore incapacità di discernimento.

Tempo, memoria e alienazione nell’era digitale (POV #10)

Hartmut Rosa e Franco “Bifo” Berardi: Il tempo che viviamo è ancora nostro o è già delle macchine? Viviamo in un’epoca che corre più veloce della nostra capacità di comprenderla. Le macchine non si limitano più a potenziare le nostre capacità: hanno trasformato il ritmo stesso dell’esistenza. Il risultato è uno scarto crescente tra la velocità del mondo e la lentezza interiore dell’essere umano, intrappolato in un presente che non concede pause né occasioni di approfondimento. Su questo si confrontano due autori del pensiero europeo contemporaneo, Hartmut Rosa e Franco “Bifo” Berardi. Rosa, sociologo tedesco, legge la modernità come un regime di accelerazione totale che investe la tecnologia, la comunicazione, il lavoro e perfino le relazioni affettive. Il suo antidoto è la risonanza, una forma di riconnessione con il mondo, un modo per tornare a sentire e vivere il tempo, non solo a misurarlo. Berardi, filosofo e attivista italiano, parte dallo stesso punto di partenza ma ne scaturisce un pensiero. La società digitale ha spinto l’attenzione e l’emotività umane oltre il limite biologico. La salvezza non sta nel rallentare il mondo, ma nel rallentare noi stessi, nel coltivare una lentezza affettiva che restituisca alla sensibilità il suo valore sovversivo. Entrambi parlano dello stesso male, la perdita di esperienza. In un tempo dominato dal flusso continuo di stimoli, informazioni e automatismi, non abbiamo più lo spazio necessario per trasformare ciò che viviamo in memoria, pensiero, significato.

L'AI e La Maledizione dell’Apprendista Stregone

Chiudete gli occhi. Sentite la musica? L'incalzare degli archi, la marcia inarrestabile di Paul Dukas. Vedete l'acqua salire, le scope moltiplicarsi senza sosta, e il panico puro sul volto di Topolino in Fantasia. L'Apprendista Stregone. È un'immagine che abbiamo impressa nella nostra cultura, potente, immediata. E oggi, sta diventando la metafora pigra, ma pericolosamente seducente,  per descrivere il nostro rapporto con l'Intelligenza Artificiale. Proprio di recente, mi sono imbattuto in un articolo di Rivista.ai che evocava questa "Sindrome dell'Apprendista Stregone" in relazione all'IA. È un paragone facile: noi, gli apprendisti (sviluppatori, la società), abbiamo lanciato un incantesimo (l'IA generativa, i LLM) per un compito (automatizzare, creare, analizzare), e ora guardiamo con terrore la creazione sfuggirci di mano, moltiplicandosi in modi che non avevamo previsto e che non sappiamo come fermare. È una narrazione potente. Ma come ingegnere e, forse ancora di più, come umanista digitale, sento che questa metafora ci assolve troppo facilmente. Ci dipinge come vittime ingenue di una magia che non comprendiamo.