Inclinazioni digitali

Su queste pagine, il 2 maggio, Martino Pirella ha proposto una lettura dell’intervista di Walter Veltroni a Claude come “illusionismo in chiesa”. L’argomento è solido nei fatti e debole nella conseguenza che ne trae. Provo a mostrare perché e a proporre un vocabolario che il dibattito non ha ancora messo a fuoco. Pirella ha individuato bene il problema dell’illusionismo. Veltroni ha individuato bene la dimensione esistenziale che la tecnica da sola non basta a esaurire. Le due posizioni sono entrambe parziali, entrambe legittime, entrambe insufficienti. Il terzo punto di vista non sta nel mezzo aritmetico tra i due. Sta da un’altra parte, ed è dove il vocabolario stesso deve essere ricostruito.

Sicofante

Ci vengono proposte ogni pie' sospinto parole nuove. Sembra inevitabile: nuove tecnologie digitali, nuovo lessico. Un lessico esoterico, fatto di parole inglesi, presto diffuse da consulenti ed esperti. Spesso queste parole, mentre segnano il potere di chi sa, nascondono più di quanto esplicitano. Ecco ora la 'Sycophancy'. Molte, in realtà, sono le parole per esprimere il concetto in modo semplice e chiaro. Cerco di raccontare 'cosa vuol dire' in questo articolo. Al termine del quale mi permetto di dire: 'Dario Amodei è un sicofante'.

Oh, i giornalisti! Sull'orlo del giornalismo-non-giornalismo

Si assiste allo scivolamento dal 'giornalismo' al 'giornalismo-non-giornalismo'. Dal 'giornalismo' come esercizio critico indipendente, come servizio ai cittadini e antidoto alla propaganda, al 'giornalismo-non-giornalismo': usare l'essere giornalisti per fare qualcosa di diverso dal giornalismo: storytelling commerciale, consulenze, docenze, libri lontanissimi dall'essere saggi meditati, esibizioni televisive con bretelle in vista... L'informazione relativa all'Intelligenza Artificiale è il oggi campo privilegiato d'azione di 'giornalisti-non-giornalisti'. Cantano l'entusiasmo per la rivoluzione tecnologica che stiamo vivendo. Naturalmente sostengono di non dimenticare i lati oscuri dell'AI. Ma ciò che veramente sembra interessare loro è il business dell'AI, l'AI come business.

Ansia da Prompt

La disruption che Walter Benjamin identificò nelle sale da gioco all'inizio del XX secolo trova una risonanza inaspettata nelle interfacce computazionali odierne. L'ascesa del "prompt engineering" come nuova pratica tecnica per modellare i risultati degli LLM rivela un coinvolgimento con la probabilità e il caso che, a mio avviso, rispecchia le strutture temporali e psicologiche che Benjamin identificò nel suo Progetto Passaggi (Das Passagen-Werk). Nel breve frammento di Benjamin, 𝗡𝗼𝘁𝗲 𝘀𝘂 𝘂𝗻𝗮 𝘁𝗲𝗼𝗿𝗶𝗮 𝗱𝗲𝗹 𝗴𝗶𝗼𝗰𝗼 𝗱'𝗮𝘇𝘇𝗮𝗿𝗱𝗼, ad esempio, emerge una figura che desidero esplorare in quanto di particolare rilevanza per il nostro momento computazionale: il giocatore d'azzardo. Il giocatore d'azzardo di Benjamin non è semplicemente una persona che scommette, ma una persona temporale perseguitata dal caso, perennemente sospesa tra possibilità e la rovina.

Intervista ImPossibile a Aaron Swartz (IIP #10)

Se la conoscenza può essere manipolata o generata da sistemi di AI che non controlliamo, che cosa resta davvero della libertà di accedere all’informazione? Aaron Swartz (1986–2013) è stato programmatore, attivista, teorico dell’accesso libero alla conoscenza. Coautore delle licenze Creative Commons, creatore dell’RSS, fondatore di Reddit e di Demand Progress, ha trasformato la rete in un contesto politico, un laboratorio di giustizia e partecipazione, non di profitto. Nel 2008, nel monastero di un eremo italiano, scrisse il Guerrilla Open Access Manifesto, un testo breve, militante, un appello per “liberare” la conoscenza scientifica dalle regole del copyright. Oggi, nell’epoca in cui l’intelligenza artificiale rielabora e ridefinisce miliardi di dati - molti dei quali prodotti, condivisi o pagati da cittadini, ricercatori e comunità - chi controlla i dati controlla la realtà; chi controlla gli algoritmi controlla la sua interpretazione.

Quando il giudice è una macchina. Una giustizia senza errori, ma è ancora giustizia?

“Sbaglia solo chi lavora”. Quanta verità in una frase che quasi tutti abbiamo sentito decine di volte, magari come consolazione o giustificazione dopo un nostro stesso errore, pronunciata da capi o colleghi benintenzionati. Del resto, sarà capitato a molti di conoscere persone che, in azienda o altrove, “sbagliano” veramente pochissimo. È anche vero che esistono professioni in cui l’errore ha un peso particolare, perché può produrre conseguenze disastrose: piloti d’aereo, autisti di mezzi pubblici, comandanti di navi; medici e infermieri; presidenti degli Stati Uniti, e così via. Tra queste categorie ci sono certamente anche i giudici, questo non si può negare. Ma al di là degli slogan, delle ingerenze della politica e di riforme più o meno comprensibili, che cosa significherebbe davvero chiedere una giustizia più efficiente e più imparziale? Proviamo allora a immaginare, ammesso che sia possibile, un giudice perfetto: zero errori tecnici, massima rapidità, e ovviamente immune a ogni forma di condizionamento non solo politico, ma anche umano. E vediamo che risposta può offrirci, per esempio… la fantascienza.

10 Domande a OpenAI su ChatGPT Health

Queste non sono domande di chi è «contro la tecnologia». Sono domande di chi prende sul serio ciò che voi stessi affermate: che 230 milioni di persone ogni settimana si affidano a ChatGPT per questioni di salute.