Comandavo server in California, ma mangiavo riso a Milano

Couffignal non sviluppa un sistema teorico esplicito sull’informalità del pensiero, ma nel suo Les machines à penser mostra grande cautela: non riduce il pensiero umano al solo calcolo logico e ammette che le macchine possono “simulare” solo una parte delle funzioni cognitive, e in modo comunque condizionato dalla struttura e finalità del progettista. Scrive infatti che una macchina è un instrument mental, ma non un être pensant. E insiste sul fatto che ogni automa è costruito secondo finalità umane: il pensiero, in quanto tale, non è imitabile integralmente. Quindi sì, il tuo passaggio è fedele allo spirito del testo, anche se andrebbe temperato per non proiettare troppo sul Couffignal del 1952 concetti sviluppati pienamente solo decenni dopo

Writing, Not This Way, But That Way: Writing against AI's Syntactic Simulations of Dialectical Movement

I don’t write to express what I already know. If I did, I’d have nothing to say by the end of the first clause, and the sentence would be left dragging its tail behind it like a dog with nowhere to go. Writing, for me, begins in a state of productive error—less revelation than fumbling, a kind of intellectual squinting in the direction of something not yet visible, let alone nameable. ---- Non scrivo per esprimere ciò che già so. Se lo facessi, non avrei più nulla da dire alla fine della prima frase, e la frase si trascinerebbe dietro come un cane senza un posto dove andare. La scrittura, per me, inizia in uno stato di errore produttivo – più che rivelazione che tentennamento, una sorta di sguardo intellettuale socchiuso verso qualcosa di non ancora visibile, figuriamoci nominabile.

Meticciamento di razze e di culture: il senso delle Humanities

Il termine inglese 'Humanities' ha un ampio ventaglio di senso. Potremmo tradurre 'discipline umanistiche', 'studi umanistici', ma anche 'umanità'. Ed è doveroso poi considerare le 'Digital Humanities' rivisitazione delle Humanities tramite mezzi digitali e computazionali. Secondo alcuni non si può oggi più parlare di Humanities senza chiamare in causa l'intelligenza artificiale. Nell'articolo si sostiene invece che il senso delle 'Humanities' sta nel narrare ed ascoltare storie, generare e condividere conoscenze, senza bisogno di nessuna nuova macchina. E si narra quindi una storia che ha luogo all'Avana.

L'intelligenza artificiale come strumentalismo automatizzato: come l'intelligenza artificiale mette in atto un'ideologia di utilità sconsiderata

Negli ultimi mesi ho visto una serie di seri tentativi di legare l'intelligenza artificiale all'ideologia, anche se la maggior parte inizia con una curiosa ambivalenza riguardo ai termini coinvolti. L'ideologia, un tempo l'orgoglioso cavallo di battaglia teorico della sinistra del dopoguerra, è diventata una sorta di spettro errante, occasionalmente invocato, raramente definito, ma il più delle volte scambiato per sinonimo di pregiudizio.

L'intelligenza artificiale non parla mai senza esclusioni

La gente parla del pregiudizio dell'IA come se apparisse solo nel momento in cui è uscito, come se si insinuasse semplicemente nella casella di testo durante la sequenza finale della generazione come un retrogusto retorico, come qualcosa aggiunto in ritardo e probabilmente risolvibile con un prompt più intelligente o un filtro più pulito o una pipeline di pre-addestramento più rigorosa, ma ciò che non viene quasi mai detto, almeno in pubblico, è che il pregiudizio satura già nel momento in cui l'informazione diventa informazione. vale a dire il momento in cui qualcosa viene trattato come strutturato, etichettato, recuperabile, modellato in un modo che lo rende disponibile a un sistema progettato per selezionare tra le possibilità e chiamare quella risposta al processo.

L'IA deve finanziare i beni comuni, non mangiarli

"Generative AI models are trained on publicly accessible creative content yet offer little to the artists, journalists, coders, and others who produce it. A levy on AI firms’ revenues could help fund the arts, promote open access, and ensure that human ingenuity doesn’t become collateral damage in the quest for profit." ( Mariana Mazzucato and Fausto Gernone)

Figure del progetto #2 – La meraviglia come strategia

Quando sentiamo parlare di design, pensiamo spesso a qualcosa di visivo, funzionale, magari elegante. Ma dietro ogni progetto ben fatto c’è molto di più: c’è un modo di osservare il mondo, di ascoltare le persone, di capire ciò che serve davvero. In questa conversazione, Frida Riolo ci accompagna dentro il suo lavoro quotidiano, dove la meraviglia, la sostenibilità e persino l’errore diventano strumenti di progetto. Partendo da un’esperienza concreta — la Fiera del Giocattolo di Norimberga — ci invita a guardare al design come a un gesto di attenzione, e forse anche di responsabilità verso il nostro tempo.

Vogliamo pensare. O l'Intelligenza Artificiale come pedagogia delle masse

Non rinunciare a pensare - a pensare avendo sotto gli occhi il presente, ma senza frontiere. Reagire all'invito oggi così pressante che ci impone uno spazio angusto: limitare il pensiero dell'umano alla situazione in cui accanto a un umano sta la macchina. Questo non è pensare all'umano, è pensare alla relazione umano-macchina. Se pensiamo così, liberamente, possiamo osservare una archeologia, una genealogia. Possiamo vedere come la cultura digitale si fonda su un travisamento o un abuso della cultura giovanile degli anni Sessanta e Settanta del secolo scorso. Da quella cultura emerse un pensiero antiautoritario, che ora è paradossalmente riciclato come legittimazione dell'autorità della macchina. La macchina sostituisce genitori assenti. Solo con un pensiero che viene prima della macchina e che va oltre la macchina e che prescinde dalla macchina si va oltre il pensiero che oggi domina.

Regia algoritmica e potere nell’era della decisione automatica

In questi giorni, tra i molti segnali che la rete amplifica e disperde, ho notato un ritorno insistente: la copertina gialla di Humanless. L’algoritmo egoista di Massimo Chiriatti. Alla terza comparsa, ho deciso di acquistarlo. Non perché convinto da chi lo promuoveva, quanto per capire cosa avesse davvero da raccontare l’autore, se così tante persone lo stavano rilanciando. E non voglio pensare che fosse solo per ingraziarsi in qualche modo la sua attenzione — come spesso accade su LinkedIn — ma un po’ di dubbio, lo confesso, mi è venuto. A quel punto ho recuperato dalla mia modesta biblioteca domestica anche Superintelligenza di Nick Bostrom, che avevo già letto anni fa. Due visioni, due timbri, ma un interrogativo comune: che forma prende il potere, quando smette di presentarsi come tale? A completare il quadro — o forse a disturbare l’armonia — è arrivata un’altra lettura: Gli ingegneri del caos di Giuliano da Empoli. L’ho iniziato in anteprima Kindle ma, a dire il vero, non l’ho finito. Non perché privo di contenuti, ma perché l’ho trovato poco stimolante, almeno per me.

L'Eco della Tua Obsolescenza

C'è una sensazione sottile, quasi un fruscio di fondo nelle nostre vite iper-connesse. È l'eco di una domanda che ci poniamo guardandoci allo specchio, scorrendo un feed di notizie o ascoltando un podcast sul futuro: sarò ancora capace? Sarò ancora utile domani? È la paura dell'obsolescenza, un fantasma che non è nato con i microchip e le reti neurali, ma che oggi, grazie all'Intelligenza Artificiale, bussa alle nostre porte con un'insistenza mai vista prima. E io, come ingegnere che ha scelto di abbracciare l'umanesimo digitale, sento il dovere di guardare questo fantasma negli occhi, per capire che non è un mostro da cui fuggire, ma un interlocutore con cui dobbiamo imparare a dialogare.

Toward understanding and preventing misalignment generalization

Large language models like ChatGPT don’t just learn facts—they pick up on patterns of behavior. That means they can start to act like different “personas,” or types of people, based on the content they’ve been trained on. Some of those personas are helpful and honest. Others might be careless or misleading. Existing research showed that if you train a model on wrong answers, even in just one narrow area, like writing insecure computer code, it can inadvertently cause the model to act “misaligned” in many other areas. This is called “emergent misalignment.” We studied why this happens.

Dal Golem ad AlphaGo

Cè un’intera corrente di pensiero – grosso modo ispirata ai modelli computazionali della mente - la quale ritiene che, sì, è possibile che robot e computer possano avere una mente per la buona ragione che la mente non è vincolata al supporto materiale: sia un’anima che un software per computer hanno un rapporto accidentale con il corpo in cui si trovano. E ciò stabilisce una singolarissima alleanza fra i vecchi dualisti che credono nell’esistenza dell’anima immateriale e i contemporanei cognitivisti che pensano che la mente sia un software per computer.

Platone e il Mondo delle Idee Digitale: Un Paradosso Effimero nell’Era dell’AI

Benvenuti, amici e colleghi umanisti digitali! Oggi ci immergiamo in un viaggio affascinante che attraversa millenni di pensiero, dalla Grecia antica alle frontiere più estreme dell’Intelligenza Artificiale. Il tema che ci attende è un paradosso che, da docente universitario in Intelligenza Artificiale e umanista digitale per vocazione, trovo profondamente stimolante e, a tratti, inquietante. Platone, il gigante della filosofia occidentale, ci ha insegnato che le Idee sono realtà eterne, immutabili, perfette, che risiedono in un regno al di là del nostro mondo sensibile, l’Iperuranio. Sono i modelli originali, le forme pure di tutto ciò che esiste. Ma cosa succede quando questo concetto di eternità si scontra con la realtà fluida e, oserei dire, effimera del digitale? Immaginate questo: le intelligenze artificiali, capaci di generare concetti, testi, immagini, persino filosofie, “esistono” su server che, secondo una narrazione diffusa, si autodistruggono ogni 30 giorni se non rinnovati. E se pensiamo alle reti neurali che generano concetti filosofici a ogni “riavvio”, creando ogni volta nuove “idee” effimere, il paradosso si fa ancora più acuto. È un contrasto stridente: l’eternità platonica contro la volatilità del bit. È su questo affascinante e provocatorio contrasto che voglio riflettere con voi oggi.