Intelligenza collettiva o artificiale (POV #14)

Pierre Lévy e Geoffrey Hinton: Il futuro del pensiero umano L’apprendimento è ancora un atto sociale o è diventato un calcolo statistico? Che ruolo restano all’interpretazione, alla responsabilità, al legame tra le persone? E soprattutto, chi controllerà il futuro del sapere? Oggi ci troviamo davanti a un bivio. Da una parte l’idea di un’intelligenza distribuita tra individui e comunità; dall’altra la costruzione di sistemi artificiali che potrebbero rendere marginale il contributo umano. Due visioni, due epoche, due modi di intendere il pensiero. Pierre Lévy - filosofo, semiologo e tra i più importanti studiosi della cultura digitale - ha immaginato negli anni ’90 il cyberspazio come una nuova sfera del sapere condiviso. Geoffrey Hinton - neuroscienziato, pioniere del deep learning, Premio Turing e Nobel per la Fisica - oggi mette in guardia dal potere autonomo delle reti neurali che lui stesso ha contribuito a sviluppare. Lévy e Hinton incarnano così una trasformazione profonda, dalla rete come comunità cognitiva alla rete come possibile entità cognitiva autonoma.

In viaggio nel Nostroverso lontano dal Metaverso (Prefazione)

Tecnologia, ambiente, economia, salute e politica sono tanti ambiti tutti tra loro intrecciati e imparentati, anche dagli effetti su di essi generati dalle accelerazioni tecnologiche degli ultimi trent’anni. Un’accelerazione resa possibile dalla modellazione costante della mente moderna per coltivare le sue aspettative di progresso e di crescita continui, di espansione del consumo e di felicità. Le crisi che da questi effetti si stanno generando sottolineano quanto quelle aspettative fossero fallaci, impongono l’urgenza di qualche forma di pentimento, di tornare a pensare, a (auto)riflettere criticamente, a problematizzare il presente, a concentrarsi approfondendo, a cambiare schemi mentali, paradigmi di riferimento e punti di vista.

Il Codice dell'Estinzione: Ciò che 12 menti brillanti hanno visto e noi ignoriamo

Da Dostoevskij alle Neuroscienze, la diagnosi è unanime: Il comfort non è una conquista, è un test evolutivo. E noi lo stiamo fallendo. Questo articolo esplora la crisi esistenziale moderna non come un fallimento tecnologico, ma come un'atrofia biologica e spirituale. Attraverso una sintesi audace che unisce la letteratura classica (Dostoevskij, Brontë), l'etologia (l'esperimento "Universo 25" di Calhoun e gli stimoli supernormali di Tinbergen), la filosofia politica (Arendt) e la neuroscienza, si sostiene che il comfort eccessivo e l'Intelligenza Artificiale stanno eliminando l'"attrito" necessario per la vita umana. La tesi centrale è che stiamo diventando "I Belli" di Calhoun: esseri perfetti esternamente ma vuoti internamente. L'autore propone la "Sovranità" e l'uso attivo della Corteccia Prefrontale come unica resistenza contro questa estinzione programmata dello spirito.

Ecologia e Intelligenza Artificiale (POV #13)

Timothy Morton e Massimo Chiriatti: due modi di pensare la coesistenza tra umani, macchine e pianeta Che cosa significa parlare di intelligenza artificiale in un mondo colpito dalla crisi climatica? È solo una questione di algoritmi e sostenibilità energetica, oppure l’AI ci costringe a ripensare le categorie con cui interpretiamo la realtà, la responsabilità e il vivente? Il confronto tra Timothy Morton e Massimo Chiriatti permette di affrontare la domanda da due lati opposti: il pensiero ecologico radicale e la cultura tecnologica del limite. Da una parte Morton, teorico dell’“iperoggetto”, dissolve le frontiere tra umano, macchina e biosfera, l’AI non è altro che un nuovo attore nella rete planetaria degli oggetti che ci precedono e ci eccedono. Dall’altra Chiriatti, economista e tecnologo, rivendica una postura umana e normativa, l’AI resta un “esecutore incosciente”, potente ma privo di semantica, che va ricondotto dentro un orizzonte etico e politico.

Politica dell’AI (POV #12)

Shoshana Zuboff e Peter Thiel: due visioni inconciliabili sul futuro del digitale. Chi controlla l’intelligenza artificiale e la sua diffusione in ogni ambito della vita sociale? Nel dibattito pubblico convivono due narrazioni opposte. Da un lato c’è chi vede la tecnologia come una forza inevitabile, capace di migliorare il mondo liberandoci da costi, errori e intermediazioni. Dall’altro, chi interpreta la nuova infrastruttura digitale come un sistema di sorveglianza capillare e di estrazione del valore, guidato da pochi attori privati con un’influenza senza precedenti. In questo nuovo articolo di POV metto a confronto due figure centrali nel dibattito sull’AI. Shoshana Zuboff, sociologa di Harvard, ha analizzato per oltre un decennio la logica del “capitalismo della sorveglianza”, un modello economico che trasforma ogni gesto, emozione o relazione in dati da monetizzare. All’estremo opposto c’è Peter Thiel, imprenditore e investitore della Silicon Valley, simbolo dell’ideologia libertaria della tecnologia, l’idea che l’innovazione sia di per sé un destino, e che le regole democratiche non possano e non debbano rallentare la corsa al futuro. Mettere queste due prospettive una accanto all’altra significa interrogarsi su la sovranità individuale, il ruolo delle istituzioni democratiche e la capacità delle società di mantenere controllo e responsabilità sulle tecnologie che le governano. Chi decide cosa vediamo? Chi raccoglie i nostri dati? Chi può prevedere e orientare i nostri comportamenti? Come possiamo difendere libertà e diritti in un mondo dove le decisioni vengono sempre più spesso delegate ad algoritmi e piattaforme private? Zuboff e Thiel, pur partendo da visioni opposte, ci aiutino a comprendere quale forma di potere stiamo consegnando al digitale.

Intervista ImPossibile a Aaron Swartz (IIP #10)

Se la conoscenza può essere manipolata o generata da sistemi di AI che non controlliamo, che cosa resta davvero della libertà di accedere all’informazione? Aaron Swartz (1986–2013) è stato programmatore, attivista, teorico dell’accesso libero alla conoscenza. Coautore delle licenze Creative Commons, creatore dell’RSS, fondatore di Reddit e di Demand Progress, ha trasformato la rete in un contesto politico, un laboratorio di giustizia e partecipazione, non di profitto. Nel 2008, nel monastero di un eremo italiano, scrisse il Guerrilla Open Access Manifesto, un testo breve, militante, un appello per “liberare” la conoscenza scientifica dalle regole del copyright. Oggi, nell’epoca in cui l’intelligenza artificiale rielabora e ridefinisce miliardi di dati - molti dei quali prodotti, condivisi o pagati da cittadini, ricercatori e comunità - chi controlla i dati controlla la realtà; chi controlla gli algoritmi controlla la sua interpretazione.

Leadership etica in un'etica di crisi: quando il potere incontra la coscienza

Perché essere giusti quando puoi essere ricco? L'Anello di Gige di Platone oscura ancora ogni sala del consiglio. Se il profitto è possibile attraverso l'ingiustizia e nessuno sta a guardare, cosa sceglierete? L'odierna cultura della leadership, basata su conformità, KPI e gestione del rischio, elude la famosa domanda di Glaucone. Il risultato è prevedibile: sistemi che premiano il raggiungimento del "minimo morale" possibile, monetizzando il danno e definendolo "creazione di valore".

L'AI e La Maledizione dell’Apprendista Stregone

Chiudete gli occhi. Sentite la musica? L'incalzare degli archi, la marcia inarrestabile di Paul Dukas. Vedete l'acqua salire, le scope moltiplicarsi senza sosta, e il panico puro sul volto di Topolino in Fantasia. L'Apprendista Stregone. È un'immagine che abbiamo impressa nella nostra cultura, potente, immediata. E oggi, sta diventando la metafora pigra, ma pericolosamente seducente,  per descrivere il nostro rapporto con l'Intelligenza Artificiale. Proprio di recente, mi sono imbattuto in un articolo di Rivista.ai che evocava questa "Sindrome dell'Apprendista Stregone" in relazione all'IA. È un paragone facile: noi, gli apprendisti (sviluppatori, la società), abbiamo lanciato un incantesimo (l'IA generativa, i LLM) per un compito (automatizzare, creare, analizzare), e ora guardiamo con terrore la creazione sfuggirci di mano, moltiplicandosi in modi che non avevamo previsto e che non sappiamo come fermare. È una narrazione potente. Ma come ingegnere e, forse ancora di più, come umanista digitale, sento che questa metafora ci assolve troppo facilmente. Ci dipinge come vittime ingenue di una magia che non comprendiamo.

Intervista ImPossibile a Stanley Kubrick (IIP #09)

AI, potere e fine dell’umano Come leggere l’intelligenza artificiale attraverso lo sguardo di Stanley Kubrick? Stanley Kubrick (1928–1999), regista, sceneggiatore e fotografo, è stato uno dei più lucidi interpreti del rapporto tra essere umano, potere e tecnologia. La sua opera ha raccontato il Novecento come un laboratorio di controllo e alienazione, ma anche come una tensione costante verso il mistero e l’insondabile. Da 2001: Odissea nello spazio a Arancia meccanica, da Shining a Full Metal Jacket, Kubrick ha osservato l’essere umano nel momento in cui la tecnica smette di essere strumento e diventa habitat, quando la macchina si fa specchio del suo creatore. Il suo cinema non immagina il futuro, lo interroga. Ogni film è un esperimento morale che indaga i limiti della ragione, la fragilità della coscienza e l’impossibilità di separare l’etica dalla conoscenza.

Intervista ImPossibile a Zygmunt Bauman (IIP #08)

AI e modernità liquida Come leggere l’intelligenza artificiale attraverso le categorie della modernità liquida di Zygmunt Bauman? Zygmunt Bauman (1925–2017), sociologo e filosofo polacco, è stato uno degli osservatori più acuti delle trasformazioni della società contemporanea. Con concetti divenuti ormai parte del nostro vocabolario ha descritto un mondo in cui tutto si fa instabile, fluido, provvisorio: relazioni, lavoro, valori, identità, persino la memoria collettiva. La sua opera, che attraversa oltre mezzo secolo di analisi critica, ha indagato gli effetti della globalizzazione, la precarietà esistenziale, il trionfo del consumo e l’erosione dei legami comunitari sotto la pressione di un mercato che trasforma persone e sentimenti in beni circolanti. In questa intervista impossibile, Bauman riflette su come l’intelligenza artificiale sia uno specchio della nostra epoca, un sintomo delle fragilità che abbiamo creato, delle paure che non sappiamo (vogliamo) nominare, e delle responsabilità che spesso preferiamo delegare alle macchine. Se la modernità liquida ha dissolto punti di riferimento e confini, che cosa rivela l’AI di noi, oggi? Da dove partire per comprenderla? Dalla tecnica o dalla nostra condizione umana?

Il sacro e l’AI (POV #08)

Paolo Benanti e Francesco D’Isa: Che cosa resta del sacro, se l’AI diventa il “dio” a cui deleghiamo verità, senso e azione? Possiamo ancora parlare di mistero, trascendenza e immaginazione in un mondo in cui le macchine analizzano, prevedono, creano e riscrivono la realtà? Il nostro bisogno di dare un senso alle cose resiste davanti all’automazione, oppure finiamo per affidare tutto agli algoritmi? Stiamo davvero costruendo nuovi dei a cui credere oppure semplicemente nuovi strumenti da usare? Ho scelto due voci autorevoli del dibattito italiano, internazionale. Paolo Benanti è un teologo francescano, consulente del Vaticano e studioso di etica delle tecnologie. Francesco D’Isa è filosofo, uno degli autori italiani più interessanti sul ruolo dell’immaginazione e dei simboli nella società di oggi. Di fronte all’intelligenza artificiale, sia Benanti che D’Isa condividono la stessa preoccupazione: dobbiamo evitare di cadere nella “tecnofede”, cioè nell’idea che la tecnologia sia una specie di “salvatore” o “dio”. Tuttavia, si dividono quando si parla del vero significato del sacro e del ruolo che l’essere umano può avere in questa nuova epoca.