Testi
Against 'embedding "AI literacy" in education and workforce development
"Generative AI use is degenerative to literacy. “AI literacy” is a dangerous device of neoliberal education and it deserves to be dismissed out of hand. But, since we don't seem to be doing that, I've taken it in hand and given it a real good rattling." (Miriam Reynoldson)
Intelligenza sensibile
Nel mezzo del cammin di una connessione neurale, mi ritrovai per una selva di sensazioni, ché la retta logica era smarrita.
Il peso del fumo (quanto pesa l’intelligenza, anche quella artificiale)
Ogni ambito disciplinare ha i propri sistemi teoretici, i propri metodi di indagine, le proprie tecniche di ricerca i propri strumenti (concettuali e tecnici). Così come ogni ambito disciplinare non è chiuso in sé stesso ma si offre al contributo delle discipline (più o meno “vicine”) così come anche sperimenta l’uso di idee, concetti, metodi e tecniche tipiche di discipline terze.
L’IA e l’arte di prevedere l’inatteso
A breve visiterò la mostra Le Monde selon l’IA al Jeu de Paume, ma ho già deciso di scriverne. Non per presunzione divinatoria – mi manca l’API – ma perché questa mostra è già un oggetto teorico ancor prima di essere esperita. Il suo allestimento è disponibile, le opere accessibili, i dispositivi curatoriale leggibili. E l’intelligenza artificiale, si sa, ha la brutta abitudine di precedere sempre la nostra comprensione.
Pensano o no? Lo statuto epistemico dei modelli linguistici generativi
I modelli linguistici generativi (LLM) hanno rapidamente conquistato un ruolo centrale nel panorama tecnologico e culturale. La loro capacità di produrre testi coerenti, risposte contestuali e output sintatticamente raffinati ha alimentato entusiasmi, preoccupazioni e, soprattutto, un diffuso disorientamento epistemologico. Sono strumenti linguistici sofisticati o stanno sviluppando forme primitive di "comprensione"? Sono simulatori ingannevoli o nuovi agenti cognitivi? Esploriamo il dilemma articolandolo secondo la struttura classica di tesi, antitesi e sintesi, nella consapevolezza che il dibattito richiede più filosofia, non meno.
Inutile chiedersi se i sottomarini sanno nuotare 1/3 - L’idea di ragionamento nella tradizione filosofica
Lo stato dell’arte della ricerca scientifica conferma che ancora oggi i LLM, pur essendo ormai di dimensioni ciclopiche, si limitano ad eseguire catene di inferenze e simulare processi deduttivi, ma lo fanno tramite aggregazioni statistiche di percorsi appresi, senza autentica comprensione o coerenza concettuale autonoma. Siamo in grado di trasferire facilmente questa capacità a modelli più piccoli, facilitandone la diffusione, ma questa resta più dipendente dalle strutture logiche apprese, che dal contenuto specifico: il rimescolamento o la cancellazione dei passaggi logici causano un degrado delle prestazioni. Questo conferma l’impossibilità da parte dei LLM di giocare al gioco linguistico della vita. Il rischio, allora, non è che le macchine diventino più umane, ma che noi si finisca per adattarsi a una forma di linguaggio priva di radici nella vita reale, perdendo dimestichezza con il pensiero critico, l’ascolto, l’interpretazione.
Inutile chiedersi se i sottomarini sanno nuotare 2/3 - Reasoning Model: un termine da interpretare
Se non sono concetti definiti in modo condiviso quando riferiti agli uomini, che senso ha riferirsi alle macchine con termini come “intelligenza” o “ragionamento”? Per riprendere Dijkstra, non sembra interessante “chiedersi se i sottomarini sono capaci di nuotare”. Eppure, il vocabolario usato dai tecnologi e dai marketer che sviluppano e promuovono l’AI continua a fare largo uso di un linguaggio equivoco, dal termine stesso di Intelligenza Artificiale al più recente “Reasoning Model”. Con Wittgenstein, capiamo che questo uso del linguaggio è esso stesso un gioco che ricorre frequentemente nel confronto con lo sviluppo del progresso in generale, e tecnologico in particolare.
Inutile chiedersi se i sottomarini sanno nuotare 3/3 - Una recitazione impeccabile ma piatta
Negli umani ogni atto linguistico si intreccia con un vissuto corporeo e relazionale. I neuroni a specchio, ad esempio, attivano nel soggetto che osserva la stessa disposizione motoria o emotiva di chi agisce o parla. Questi neuroni sono considerati fondamentali per l’intersoggettività umana e l’empatia, perché creano una forma di risonanza diretta, corporea, che precede e sostiene la comprensione cognitiva.
Dalla “Homework Apocalypse” alla sfida del pensiero critico
L’intelligenza artificiale stia cambiando la scuola e la formazione: basta riflettere sulla cosiddetta “homework apocalypse”. I compiti li fa l’AI, le ricerche si scrivono in un clic. Ma possiamo permetterci questo esonero cognitivo nell’epoca delle post-verità e delle narrazioni alternative? Per fornire uno strumento concreto per la didattica, propongo una simulazione interattiva con l’AI: “Sancho Panza e la sfida del pensiero critico” al tempo stesso esercitazione sul pensiero critico ed esempio di come potrebbero evolvere le attività didattiche nell’era dell’AI. Nel gioco, i partecipanti vestono i panni di Sancho Panza e cercano di convincere Don Chisciotte che le sue visioni sono illusioni. Un “gioco serio” per allenare il pensiero critico nel confronto con visioni alternative, opinioni granitiche e… IA generativa.
Frammenti di riflessioni maieutiche con l’intelligenza artificiale
Un dialogo maieutico reale con l’Intelligenza Artificiale, che approfondisce il suo potenziale nella creazione di opinione e nella possibilità di diventare un autentico strumento di riflessione filosofica. L’idea è che la tecnologia non sia più soltanto oggetto della filosofia, ma anche uno dei suoi strumenti.
Ghibli mania: il diritto, il rispetto e l’eredità di Miyazaki
Il rilascio della nuova versione di ChatGPT capace di generare immagini, ha rinvigorito un dibattito mai esaurito sul copyright e il diritto d’autore. Le sue caratteristiche sono decisamente migliori di quelle di DALL·E 3, riuscendo a mantenere coerenza nei personaggi e nello stile anche con elementi complessi come il testo o i dettagli anatomici, ma sono tali da far concorrenza perfino a modelli collaudati da tempo come Midjourney. Una feature in particolare ha avuto un incredibile successo, ed è diventata rapidamente virale, anche perché incoraggiata dallo stesso Altman: quella che permette di interpretare un’immagine, o una propria foto, nello stile magico dello Studio Ghibli. I social si sono riempiti di avatar incantati, occhi enormi e atmosfere da fiaba giapponese, sorprendendo perfino i tecnici di OpenAI, che hanno faticato a gestire il sovraccarico di richieste. Insieme al facile entusiasmo, però, si sono alzati gli interrogativi sul senso di questo meme, e soprattutto sulla sua etica.
Hypnocracy: arcano svelato e fact checking debunked
Come promesso, ecco la mia personale indagine su “Jianwei Xun”, un lavoro da profiler a caccia del killer, che racconto qui in due tappe. Risulterà anche un’operazione di debunking di un certo fact checking, accettando la sfida lanciata dal libro Hypnocracy, e dimostrando che il fact checking si può fare, se però esso stesso non è affetto da bias. Infatti l’esame dei fact checker non è privo di allucinazioni, errori e valutazioni sommarie, ma proposte come verità, tanto che sono state espresse con un certo dileggio per chi non le riconosce come tali.
Contro la Repubblica Tecnologica: la nave, non il missile
Un saggio filosofico sull’intelligenza artificiale, la crisi dell’autorialità e la deriva bellica della tecnologia. Tra navi, missili e filosofi apocrifi, Fulcenzio Odussomai ci guida in un viaggio attraverso le soglie del potere e dell’immaginazione.
Hypnocracy: L’Esperimento di Carlo
Leggere il libro “Hypnocracy: Trump, Musk, and the Architecture of Reality”, o anche solo partecipare al dibattito che si sta animando intorno ad esso, è come immergersi in un film di David Lynch. Come nel film, anche nel libro ci si muove senza punti di riferimento stabili, tra piani che si sovrappongono e identità che si moltiplicano, fino a perdere il confine tra percezione e costruzione della realtà.
Business Ethics and AI: A Wake-Up Call
Artificial Intelligence has been evolving for decades, mainly behind the scenes. However, the breakthrough and widespread availability of generative AI technologies like ChatGPT and Dall-E have catapulted this technology into the public eye, sparking enthusiasm and concern. Doomsayers warn that AI could lead to the end of humankind.1 While this may seem exaggerated, few would dispute that AI has the potential to inflict severe damage. This warrants attention from an ethical point of view in general and a business ethics point of view in particular.
Hypnocracy: in lucida trance, tra il vero e il falso
Leggere il libro “Hypnocracy: Trump, Musk, and the Architecture of Reality”, o anche solo partecipare al dibattito che si sta animando intorno ad esso, è come immergersi in un film di David Lynch, ovvero come ritrovarsi nei panni di Diane Selwyn dopo l’incidente su Mulholland Drive.
Hypnocracy: una mappa concettuale per orientarsi
Leggere “Hypnocracy” di “Jianwei Xun” è un’esperienza straniante e, insieme, chiarificatrice. Il libro non si presta a una sintesi lineare, né a una lettura “a tesi”: è piuttosto un paesaggio mentale, una rete di concetti, immagini, frammenti teorici e intuizioni che si rincorrono, si sovrappongono e talvolta si contraddicono. Un testo che non si limita a descrivere un fenomeno, ma che tenta di farci vivere — nel modo stesso in cui è scritto — la condizione che analizza: quella di una realtà ipnotica, fluida, discontinua, priva di un centro.
Prompting come Mediazione tra Due Epistemologie (1/2)
Il nostro rapporto con l’acquisizione di informazioni per generare nuova conoscenza e decidere nuovi piani di azione, è andato trasformandosi nel tempo, e proprio negli ultimi decenni ha attraversato una vera e propria rivoluzione. L’argomento è molto complesso, ma tentiamo qui di collocare il prompting verso l’AI in un più ampio quadro storico, filosofico e culturale.
Avvertenze: l’uso inconsapevole dell’AI può dare assuefazione
Dove si colloca la linea di demarcazione tra la responsabilità e le decisioni dell’utente e quelle dell’AI? Quale capacità o ambito di ragionamento siamo disposti a delegare? Quale cognizione dimostra l’AI e quale siamo portati a riconoscerle? e soprattutto, fino a che punto è una delega e non diventa un condizionamento? fino a dove vogliamo e riusciamo a mantenere il controllo?
Gurdulù, Torrismondo e Carlomagno
Come ho scritto nel mio libro "L'Intelligenza Inesistente", io credo che molti di noi vivano oggi nella totale inconsapevolezza con la quale andiamo in giro per il mondo lasciando tracce digitali di noi, pronte per essere "messe a valore" dai tecnocrati della Silicon Valley, serviti dalla loro migliore paladina, l'intelligenza artificiale. Che cosa verrà da qui in avanti non lo sappiamo, e per scoprirlo non ci aiuterà una tecnologia che basa le sue previsioni sull'ipotesi che il futuro sarà una replica di quanto accaduto nel passato. Comprendere questo fenomeno, però, può aiutarci a costruire tecnologie alternative, che promuovano la convivialità e la partecipazione diffusa, a scuola come nella società.