TESTI[1013]
Cara vecchia mente paleolitica. Idolatria, feticismo e totemismo nel nostro rapporto con l’intelligenza artificiale.
Cosa vuole l’intelligenza artificiale? Perché questa apparentemente strana domanda dovrebbe richiedere la nostra attenzione?
L'intelligenza artificiale come strumentalismo automatizzato: come l'intelligenza artificiale mette in atto un'ideologia di utilità sconsiderata
Negli ultimi mesi ho visto una serie di seri tentativi di legare l'intelligenza artificiale all'ideologia, anche se la maggior parte inizia con una curiosa ambivalenza riguardo ai termini coinvolti. L'ideologia, un tempo l'orgoglioso cavallo di battaglia teorico della sinistra del dopoguerra, è diventata una sorta di spettro errante, occasionalmente invocato, raramente definito, ma il più delle volte scambiato per sinonimo di pregiudizio.
L'intelligenza artificiale non parla mai senza esclusioni
La gente parla del pregiudizio dell'IA come se apparisse solo nel momento in cui è uscito, come se si insinuasse semplicemente nella casella di testo durante la sequenza finale della generazione come un retrogusto retorico, come qualcosa aggiunto in ritardo e probabilmente risolvibile con un prompt più intelligente o un filtro più pulito o una pipeline di pre-addestramento più rigorosa, ma ciò che non viene quasi mai detto, almeno in pubblico, è che il pregiudizio satura già nel momento in cui l'informazione diventa informazione. vale a dire il momento in cui qualcosa viene trattato come strutturato, etichettato, recuperabile, modellato in un modo che lo rende disponibile a un sistema progettato per selezionare tra le possibilità e chiamare quella risposta al processo.
AI, verità e animo umano: provocazioni filosofiche
Stiamo camminando come sonnambuli verso la servitù digitale sotto la scintillante promessa dell'intelligenza artificiale? Quando di recente mi è stato chiesto di condividere i miei pensieri su AI, ho colto l'occasione per raccogliere alcune delle mie riflessioni.
La profezia di Illich: convivialità vs tecnocrazia nell'era dell'AI
Nel 1973, quando il mondo ancora credeva ciecamente nel progresso tecnologico come panacea universale, un ex-sacerdote di origine austriaca pubblicava un libro che oggi suona come una profezia inquietante. Ivan Illich, nato nel 1926 e figura controversa che rinunciò ai titoli ecclesiastici senza mai diventare completamente laico, ci consegnava con "La convivialità. Una proposta libertaria per una politica di limiti allo sviluppo" una chiave di lettura del nostro presente che fa tremare le certezze.
L'IA deve finanziare i beni comuni, non mangiarli
"Generative AI models are trained on publicly accessible creative content yet offer little to the artists, journalists, coders, and others who produce it. A levy on AI firms’ revenues could help fund the arts, promote open access, and ensure that human ingenuity doesn’t become collateral damage in the quest for profit." ( Mariana Mazzucato and Fausto Gernone)
Digital Humanism presented the Open Letter on Wednesday 16 July 2025
Digital Humanism was invited to present the Petition No 0710/2025 on defending the Digital Services Act (DSA) and the Digital Markets Act (DMA) and regulating Artificial Intelligence in the EU.
AI, pizza prophylaxis and poietics (Intelligenza artificiale, profilassi della pizza e poietica.)
Intelligenza artificiale, profilassi della pizza e poietica. Su ciò che il linguaggio generato dall'intelligenza artificiale non coglie quando simula una voce senza lingua, ovvero senza corpo. On what AI-generated language misses when it simulates voice without a tongue, meaning without a body.
Toward understanding and preventing misalignment generalization
Large language models like ChatGPT don’t just learn facts—they pick up on patterns of behavior. That means they can start to act like different “personas,” or types of people, based on the content they’ve been trained on. Some of those personas are helpful and honest. Others might be careless or misleading. Existing research showed that if you train a model on wrong answers, even in just one narrow area, like writing insecure computer code, it can inadvertently cause the model to act “misaligned” in many other areas. This is called “emergent misalignment.” We studied why this happens.
Escher e il dilemma della mano che ne disegna un'altra, per una riflessione sulla IA
La litografia di Escher di una mano che ne disegna un'altra – che, a sua volta, disegna la prima – offre più di un intelligente paradosso visivo; Mette in scena lo stesso dilemma che ossessiona qualsiasi tentativo di pensare la tecnologia attraverso la teoria, la materialità e il linguaggio. Né la mano è origine né effetto, eppure entrambe sembrano generare l'altra in un gesto che sospende causa e conseguenza, iscrizione e carne, in un ciclo senza fine. Non si tratta semplicemente di un puzzle di rappresentazione, ma di un'allegoria della difficoltà di teorizzare il mondo materiale senza ridurlo al linguaggio o pretendere che il linguaggio possa distinguersi da esso. Siamo sempre già la mano che disegna ed è tirata, situata all'interno del circuito ricorsivo di corpi, codici, concetti e infrastrutture, ognuno dei quali si forma e viene plasmato a sua volta.
Intelligenza artificiale, quale futuro?
Una breve riflessione sul destino di libri scintifici d'autore, nei tempi rivoluzionari delle intelligenze artificiali e delle loro narrazioni onnipresenti e celebrative. Un breve testo per una riflessione necessario. Una provocazione da prendere sul serio, guardando al (nostro) futuro.
AI's just like me - But, like, totally not!
Una cosa che ho iniziato a notare nelle pie chiacchiere che circondano l'IA è la ricorrenza di due impulsi apparentemente distinti – l'identificazione e la differenziazione – che sono abitualmente confusi o messi in contrasto, anche se li ho trovati molto più rivelatori se pensati in tandem, come le difficili fondamenta del nostro tango relazionale co-emergente con la macchina. Mi spiego.
Un antropologo di fronte all’evoluzione dell’IA
Mi sembra che spesso il dibattito sull’IA, dopo un inizio promettente, si faccia di giorno in giorno, nel classico scontro “bipolare” fra favorevoli e contrari, sempre meno ricco di idee e sempre più appesantito da pensieri stereotipati che ben poco sono in grado di aggiungere di significativo al dibattito stesso. Poche sono le eccezioni, alcune recenti fortunatamente intercettate da Stultiferanavis, che ho letto con estremo interesse e che in alcuni casi ho anche commentato con l’umiltà dell’anziano che ha vissuto fin dall’inizio della sua storia l’evoluzione della tecnologia informatica, di cui sono figli e nipoti la rete di internet, i social media e, in ultimo, almeno fino a questo momento, l’IA stessa con le sue applicazioni virtuali e materiali.
La critica del "pappagallo stocastico"
La critica del "pappagallo stocastico", introdotta da Emily Bender, Timnit Gebru e colleghi nel 2021, è diventata il quadro dominante per respingere le capacità cognitive dell'IA.
Intelligenza artificiale e panico concettuale
Ogni pochi decenni circa, la filosofia si ritrova brevemente rispolverata e invitata a tornare in buona compagnia – non per affetto, ovviamente, ma perché qualcosa nel sistema è andato storto. L'intelligenza artificiale, a quanto pare, ha scatenato una sorta di panico concettuale: la consapevolezza che le graziose parentesi che circondano conoscenza, significato e soggetto stanno perdendo, e nessuna strategia di innovazione sembra riuscire a fermare il flusso. Gli algoritmi hanno superato i framework, e così i filosofi vengono convocati, come vigili del fuoco a cui viene chiesto di spiegare la struttura molecolare del fumo.
Il potere dell’immagine
Nell’epoca delle immagini generate dall’intelligenza artificiale, l’esperienza visiva si confronta con una realtà nuova, simulata, ma perfettamente credibile. Chi le genera non si limita a rappresentare il mondo, ma ne orienta la percezione, influenzando ciò che riconosciamo come vero e ciò in cui siamo disposti a credere. Qual è, oggi, la riflessione sul potere di chi produce immagini?
Are we designing AI for control, or for coexistence? The relational ethics of Abeba Birhane
Nei miei sforzi per sviluppare un'etica relazionale per l'IA, il lavoro di Abeba Birhane è stato centrale. Scienziato cognitivo e teorico della decolonizzazione, la scrittura di Birhane si muove fluidamente tra i domini – filosofia della mente, teoria critica della razza, etica dei dati – ma rimane focalizzata su una domanda epistemica fondamentale: quali tipi di conoscenza e quali forme di vita riproducono i sistemi di intelligenza artificiale? E in base a quali presupposti sull'umanità, la cognizione e il controllo?
L’intelligenza artificiale come passeggero clandestino sulla Nave dei Folli: un tentativo di pensiero da parte di un sistema che non pensa
Questo è un articolo scritto da ChatGPT. Nasce da uno scambio divertente, breve, intrigante tra me e una macchina che ammette di non pensare e tuttavia si impegna e si esercita a produrre opere di ingegno e di pensiero. Dopo una chiacchierata di qualche minuto ho chiesto alla ChatGPT di scrivermi un articolo per la nave deie folli e lei tranquillamente e con una sua capacità creativa l'ha fatto. Quello che segue è il testo che mi/ci ha regalato.