Leggete Giacomo Debenedetti. L'autore non e' morto, non c'e' testo senza autore

Nel 1967 Barthes pubblica 'La mort de l'auteur' (“l'autore è morto”; “La nascita del lettore deve essere pagata con la morte dell'autore”. E Derrida pubblica 'De la grammatologie' (“non c'è niente al di fuori del testo”) . In quello stesso anno moriva Giacomo Debenedetti. Da quarant'anni -a partire dal saggio che, ventiquattrenne, nel 1925, dedicò a Proust- aveva indagato sul romanzo. Nel 1965 il suo pensiero trova sintesi nella sua “commemorazione provvisoria del personaggio-uomo”. Debenedetti mostra come l'autore non è per nulla morto: scrive faticosamente per conoscere sé stesso; scrive in qualche modo sempre la propria autobiografia: attraverso la scrittura, scrive per conoscere la propria malattia, la scrittura è la cura. L'autore non è per nulla morto: scrive faticosamente per conoscere sé stesso; scrive in qualche modo sempre la propria autobiografia: attraverso la scrittura, scrive per conoscere la propria malattia, la scrittura è la cura. Proprio da questa autoanalisi nasce la proposta rivolta al lettore, il patto tra autore e lettore. Debenedetti ci invita ad osservare come in ogni pagina, in ogni parola di Proust, Joyce, Kafka, l'autore è sempre presente. Ed in ogni pagina in ogni parola, aggiunge Debenedetti, l'autore ci dice: “si tratta anche di te”.

Furti di VIP e salvezza artificiale: chi ci crede davvero?

Un parallelo tra i furti improbabili ai danni di VIP in cerca di visibilità — come bagagli di lusso con gioielli e diamanti spariti sul treno oppure orologi da 200.000 euro persi dopo le vacanze — e le narrazioni utopistiche sull’intelligenza artificiale “benevola” che distribuirà ricchezza in modo equo. Entrambi i casi condividono lo stesso difetto: la sospensione del senso critico e l’accettazione di storie troppo perfette per essere vere. Con riferimenti ai lavori di Cathy O’Neil, Kate Crawford e Shoshana Zuboff, il testo invita a verificare, chiedere prove e diffidare delle narrazioni che promettono equità senza fornire basi concrete.

Comandavo server in California, ma mangiavo riso a Milano

Couffignal non sviluppa un sistema teorico esplicito sull’informalità del pensiero, ma nel suo Les machines à penser mostra grande cautela: non riduce il pensiero umano al solo calcolo logico e ammette che le macchine possono “simulare” solo una parte delle funzioni cognitive, e in modo comunque condizionato dalla struttura e finalità del progettista. Scrive infatti che una macchina è un instrument mental, ma non un être pensant. E insiste sul fatto che ogni automa è costruito secondo finalità umane: il pensiero, in quanto tale, non è imitabile integralmente. Quindi sì, il tuo passaggio è fedele allo spirito del testo, anche se andrebbe temperato per non proiettare troppo sul Couffignal del 1952 concetti sviluppati pienamente solo decenni dopo

Writing, Not This Way, But That Way: Writing against AI's Syntactic Simulations of Dialectical Movement

I don’t write to express what I already know. If I did, I’d have nothing to say by the end of the first clause, and the sentence would be left dragging its tail behind it like a dog with nowhere to go. Writing, for me, begins in a state of productive error—less revelation than fumbling, a kind of intellectual squinting in the direction of something not yet visible, let alone nameable. ---- Non scrivo per esprimere ciò che già so. Se lo facessi, non avrei più nulla da dire alla fine della prima frase, e la frase si trascinerebbe dietro come un cane senza un posto dove andare. La scrittura, per me, inizia in uno stato di errore produttivo – più che rivelazione che tentennamento, una sorta di sguardo intellettuale socchiuso verso qualcosa di non ancora visibile, figuriamoci nominabile.

Meticciamento di razze e di culture: il senso delle Humanities

Il termine inglese 'Humanities' ha un ampio ventaglio di senso. Potremmo tradurre 'discipline umanistiche', 'studi umanistici', ma anche 'umanità'. Ed è doveroso poi considerare le 'Digital Humanities' rivisitazione delle Humanities tramite mezzi digitali e computazionali. Secondo alcuni non si può oggi più parlare di Humanities senza chiamare in causa l'intelligenza artificiale. Nell'articolo si sostiene invece che il senso delle 'Humanities' sta nel narrare ed ascoltare storie, generare e condividere conoscenze, senza bisogno di nessuna nuova macchina. E si narra quindi una storia che ha luogo all'Avana.

L'intelligenza artificiale come strumentalismo automatizzato: come l'intelligenza artificiale mette in atto un'ideologia di utilità sconsiderata

Negli ultimi mesi ho visto una serie di seri tentativi di legare l'intelligenza artificiale all'ideologia, anche se la maggior parte inizia con una curiosa ambivalenza riguardo ai termini coinvolti. L'ideologia, un tempo l'orgoglioso cavallo di battaglia teorico della sinistra del dopoguerra, è diventata una sorta di spettro errante, occasionalmente invocato, raramente definito, ma il più delle volte scambiato per sinonimo di pregiudizio.

L'intelligenza artificiale non parla mai senza esclusioni

La gente parla del pregiudizio dell'IA come se apparisse solo nel momento in cui è uscito, come se si insinuasse semplicemente nella casella di testo durante la sequenza finale della generazione come un retrogusto retorico, come qualcosa aggiunto in ritardo e probabilmente risolvibile con un prompt più intelligente o un filtro più pulito o una pipeline di pre-addestramento più rigorosa, ma ciò che non viene quasi mai detto, almeno in pubblico, è che il pregiudizio satura già nel momento in cui l'informazione diventa informazione. vale a dire il momento in cui qualcosa viene trattato come strutturato, etichettato, recuperabile, modellato in un modo che lo rende disponibile a un sistema progettato per selezionare tra le possibilità e chiamare quella risposta al processo.

L'IA deve finanziare i beni comuni, non mangiarli

"Generative AI models are trained on publicly accessible creative content yet offer little to the artists, journalists, coders, and others who produce it. A levy on AI firms’ revenues could help fund the arts, promote open access, and ensure that human ingenuity doesn’t become collateral damage in the quest for profit." ( Mariana Mazzucato and Fausto Gernone)

Figure del progetto #2 – La meraviglia come strategia

Quando sentiamo parlare di design, pensiamo spesso a qualcosa di visivo, funzionale, magari elegante. Ma dietro ogni progetto ben fatto c’è molto di più: c’è un modo di osservare il mondo, di ascoltare le persone, di capire ciò che serve davvero. In questa conversazione, Frida Riolo ci accompagna dentro il suo lavoro quotidiano, dove la meraviglia, la sostenibilità e persino l’errore diventano strumenti di progetto. Partendo da un’esperienza concreta — la Fiera del Giocattolo di Norimberga — ci invita a guardare al design come a un gesto di attenzione, e forse anche di responsabilità verso il nostro tempo.

Vogliamo pensare. O l'Intelligenza Artificiale come pedagogia delle masse

Non rinunciare a pensare - a pensare avendo sotto gli occhi il presente, ma senza frontiere. Reagire all'invito oggi così pressante che ci impone uno spazio angusto: limitare il pensiero dell'umano alla situazione in cui accanto a un umano sta la macchina. Questo non è pensare all'umano, è pensare alla relazione umano-macchina. Se pensiamo così, liberamente, possiamo osservare una archeologia, una genealogia. Possiamo vedere come la cultura digitale si fonda su un travisamento o un abuso della cultura giovanile degli anni Sessanta e Settanta del secolo scorso. Da quella cultura emerse un pensiero antiautoritario, che ora è paradossalmente riciclato come legittimazione dell'autorità della macchina. La macchina sostituisce genitori assenti. Solo con un pensiero che viene prima della macchina e che va oltre la macchina e che prescinde dalla macchina si va oltre il pensiero che oggi domina.

Regia algoritmica e potere nell’era della decisione automatica

In questi giorni, tra i molti segnali che la rete amplifica e disperde, ho notato un ritorno insistente: la copertina gialla di Humanless. L’algoritmo egoista di Massimo Chiriatti. Alla terza comparsa, ho deciso di acquistarlo. Non perché convinto da chi lo promuoveva, quanto per capire cosa avesse davvero da raccontare l’autore, se così tante persone lo stavano rilanciando. E non voglio pensare che fosse solo per ingraziarsi in qualche modo la sua attenzione — come spesso accade su LinkedIn — ma un po’ di dubbio, lo confesso, mi è venuto. A quel punto ho recuperato dalla mia modesta biblioteca domestica anche Superintelligenza di Nick Bostrom, che avevo già letto anni fa. Due visioni, due timbri, ma un interrogativo comune: che forma prende il potere, quando smette di presentarsi come tale? A completare il quadro — o forse a disturbare l’armonia — è arrivata un’altra lettura: Gli ingegneri del caos di Giuliano da Empoli. L’ho iniziato in anteprima Kindle ma, a dire il vero, non l’ho finito. Non perché privo di contenuti, ma perché l’ho trovato poco stimolante, almeno per me.

L'Eco della Tua Obsolescenza

C'è una sensazione sottile, quasi un fruscio di fondo nelle nostre vite iper-connesse. È l'eco di una domanda che ci poniamo guardandoci allo specchio, scorrendo un feed di notizie o ascoltando un podcast sul futuro: sarò ancora capace? Sarò ancora utile domani? È la paura dell'obsolescenza, un fantasma che non è nato con i microchip e le reti neurali, ma che oggi, grazie all'Intelligenza Artificiale, bussa alle nostre porte con un'insistenza mai vista prima. E io, come ingegnere che ha scelto di abbracciare l'umanesimo digitale, sento il dovere di guardare questo fantasma negli occhi, per capire che non è un mostro da cui fuggire, ma un interlocutore con cui dobbiamo imparare a dialogare.

Toward understanding and preventing misalignment generalization

Large language models like ChatGPT don’t just learn facts—they pick up on patterns of behavior. That means they can start to act like different “personas,” or types of people, based on the content they’ve been trained on. Some of those personas are helpful and honest. Others might be careless or misleading. Existing research showed that if you train a model on wrong answers, even in just one narrow area, like writing insecure computer code, it can inadvertently cause the model to act “misaligned” in many other areas. This is called “emergent misalignment.” We studied why this happens.