TESTI
Perché abbiamo bisogno di studi post-disciplinari sull'intelligenza artificiale
Siamo di fronte a una scommessa e a una sfida epocali: ripensare l'intelligenza richiede di ripensare le architetture della conoscenza stessa.
Come svalutare tutto con un click
Ogni volta che pubblichi "Fatto in 5 minuti con l'AI, da qualche parte un creativo muore. Quella insopportabile e dilettantesca narrazione del "tutto veloce, tutto facile" che va tanto di moda sui social? È un autogol clamoroso e sta addestrando il mercato a non riconoscere il valore del lavoro. Ho scritto tutto quello che penso su questa storia nel mio ultimo articolo qui sotto.
L'intelligenza artificiale può creare qualcosa di nuovo?
Una riflessione sulla IA, coinvolgendo il pensiero del pensatore francese Alain Badiou.
La sfida della (auto)coscienza: intelligenza artificiale e produzione di senso
L'intelligenza artificiale contemporanea ci pone di fronte a interrogativi fondamentali sulla natura della mente e della coscienza. Dagli anni Ottanta, programmi come BACON di Langley, sviluppato per simulare la scoperta scientifica attraverso l'analisi di dati numerici, e SME (Structure-Mapping Engine) di Gentner, progettato per modellare il ragionamento analogico umano, hanno tentato di riprodurre computazionalmente funzioni cognitive complesse. Tuttavia, questi sistemi operano su rappresentazioni già strutturate, eludendo il problema cruciale di come la mente costruisca significato a partire dall'esperienza grezza. Questo articolo esplora l'ipotesi che l'autentica agenzia cognitiva richieda una funzione sintetica capace di unificare percezione e concettualizzazione sotto un'identità soggettiva. Attraverso l'analisi critica dei modelli computazionali attuali e il confronto con dispositivi meramente reattivi, argomento che il problema della coscienza artificiale non può essere risolto solo mediante l'incremento della sofisticazione algoritmica, ma necessita di un ripensamento radicale della natura stessa della soggettività e dell'esperienza cosciente.
On The Epistemological Barrier to a Science of (Artificial) Intelligence
Artificial intelligence is nonsense, so let us begin with a word on nonsense. In what follows, nonsense per se is not meant as equivalent to stupid, or silly. Rather, nonsense is a string of words that make no sense. What is said contains no meaning. An example of nonsense (by philosopher Peter Hacker): the number 3 married number 2 on planet number 2. What would lead to stupidity or silliness, however, was if someone were now to insist that it is intelligible that numbers can actually marry, and that they were engaged in scientific research that might prove this.
The AI Hype is a Dead Man Walking. The Math Finally Proves It.
For the past two years, the AI industry has been operating on a single, seductive promise: that if we just keep scaling our current models, we'll eventually arrive at AGI. A wave of new research, brilliantly summarized in a recent video analysis, has finally provided the mathematical proof that this promise is a lie.
L'asticella si è semplicemente spostata
Possiamo divincolarci. Possiamo piagnucolare. Possiamo temporeggiare, resistere, pattugliare e torcerci le mani davanti allo spettro dell'apocalisse. Ma nulla di tutto ciò cambia un fatto semplice e irreversibile:
Le competenze di lettura ravvicinata si trasferiscono all'intelligenza artificiale?
C'è stata, di recente, una raffica di proclami ben intenzionati sulle virtù inaspettate dell'educazione letteraria nell'era degli interlocutori algoritmici. Un eccellente pezzo di Nick Potkalitsky, PhD offre quello che potrebbe essere definito un riavvicinamento pedagogico tra le testualità disordinate della narrativa e la peculiare fluidità dell'IA generativa.
Genealogia dell’ecointelligenza: una ricerca tra cognizione, sistemi e potere
Questo articolo nasce da un percorso di ricerca personale sul concetto di ecointelligenza, intesa non come attitudine soggettiva ma come campo sistemico in trasformazione. Dalla psicologia cognitiva di Gardner alla pedagogia ecologica di Bowers, fino alla critica geopolitica dell’intelligenza artificiale in chiave postdigitale, il testo ripercorre le tappe di una riflessione che oggi trova nuovi campi di applicazione: IA ambientale, sorveglianza urbana, modelli cognitivi estrattivi. In questa prospettiva, l’ecointelligenza si configura come capacità di leggere ambienti ibridi, accettarne le contraddizioni e agire senza scorciatoie. In chiusura, si suggerisce la lettura di Le tre ecologie di Guattari, testo chiave per ripensare il rapporto tra ecologia, soggettività e potere.
Benedetta la benevola AGI: La favola del Re programmatore
𝐈𝐦𝐦𝐚𝐠𝐢𝐧𝐚𝐭𝐞 𝐪𝐮𝐞𝐬𝐭𝐨. Ti svegli e il mondo è finalmente cresciuto. Niente politici, niente corruzione, niente guerre. Un'intelligenza artificiale serena e onnisciente governa il nostro pianeta con incorruttibile chiarezza. L'assistenza sanitaria è impeccabile, l'allocazione delle risorse istantanea, il crimine previsto fuori dall'esistenza. Ogni obiettivo climatico è stato raggiunto prima del previsto. Le città ronzano in perfetto equilibrio; Il traffico scorre come la poesia, i bisogni dei cittadini vengono soddisfatti prima ancora che espressi.
Francesco Varanini vs Copilot
Francesco Varanini ci invita a leggere Debenedetti per ritrovare l’autore. Ma forse oggi dobbiamo leggere Barthes e Derrida per andare oltre. L’autore non è morto: si è trasformato. È diventato rete, algoritmo, collettivo. E il lettore non perde nulla: anzi, guadagna libertà, pluralità, nuove forme di dialogo. Un testo senza autore umano può essere valido, profondo, trasformativo. Perché il significato non nasce dalla penna, ma dall’incontro.”
Vite infinite, morti sospese: il lato oscuro della memoria digitale
La morte non è più soltanto un evento biologico o un fatto intimo da elaborare nel silenzio del lutto. Nell’era digitale, le tracce che lasciamo online sopravvivono a noi stessi: profili social, chat, immagini, archivi che continuano a parlare anche quando la vita si interrompe. Tecnologie emergenti trasformano questa eredità immateriale in presenza attiva, attraverso avatar, chatbot e piattaforme che promettono di mantenere vivo il legame con chi non c’è più. È un cambiamento che solleva domande profonde: fino a che punto siamo disposti ad affidare la memoria e la nostra identità a una macchina? E cosa accade quando il confine tra ricordo e simulacro diventa sempre più sottile, confondendo vita, morte e persistenza digitale?
Leggete Giacomo Debenedetti. L'autore non e' morto, non c'e' testo senza autore
Nel 1967 Barthes pubblica 'La mort de l'auteur' (“l'autore è morto”; “La nascita del lettore deve essere pagata con la morte dell'autore”. E Derrida pubblica 'De la grammatologie' (“non c'è niente al di fuori del testo”) . In quello stesso anno moriva Giacomo Debenedetti. Da quarant'anni -a partire dal saggio che, ventiquattrenne, nel 1925, dedicò a Proust- aveva indagato sul romanzo. Nel 1965 il suo pensiero trova sintesi nella sua “commemorazione provvisoria del personaggio-uomo”. Debenedetti mostra come l'autore non è per nulla morto: scrive faticosamente per conoscere sé stesso; scrive in qualche modo sempre la propria autobiografia: attraverso la scrittura, scrive per conoscere la propria malattia, la scrittura è la cura. L'autore non è per nulla morto: scrive faticosamente per conoscere sé stesso; scrive in qualche modo sempre la propria autobiografia: attraverso la scrittura, scrive per conoscere la propria malattia, la scrittura è la cura. Proprio da questa autoanalisi nasce la proposta rivolta al lettore, il patto tra autore e lettore. Debenedetti ci invita ad osservare come in ogni pagina, in ogni parola di Proust, Joyce, Kafka, l'autore è sempre presente. Ed in ogni pagina in ogni parola, aggiunge Debenedetti, l'autore ci dice: “si tratta anche di te”.
Furti di VIP e salvezza artificiale: chi ci crede davvero?
Un parallelo tra i furti improbabili ai danni di VIP in cerca di visibilità — come bagagli di lusso con gioielli e diamanti spariti sul treno oppure orologi da 200.000 euro persi dopo le vacanze — e le narrazioni utopistiche sull’intelligenza artificiale “benevola” che distribuirà ricchezza in modo equo. Entrambi i casi condividono lo stesso difetto: la sospensione del senso critico e l’accettazione di storie troppo perfette per essere vere. Con riferimenti ai lavori di Cathy O’Neil, Kate Crawford e Shoshana Zuboff, il testo invita a verificare, chiedere prove e diffidare delle narrazioni che promettono equità senza fornire basi concrete.
Comandavo server in California, ma mangiavo riso a Milano
Couffignal non sviluppa un sistema teorico esplicito sull’informalità del pensiero, ma nel suo Les machines à penser mostra grande cautela: non riduce il pensiero umano al solo calcolo logico e ammette che le macchine possono “simulare” solo una parte delle funzioni cognitive, e in modo comunque condizionato dalla struttura e finalità del progettista. Scrive infatti che una macchina è un instrument mental, ma non un être pensant. E insiste sul fatto che ogni automa è costruito secondo finalità umane: il pensiero, in quanto tale, non è imitabile integralmente. Quindi sì, il tuo passaggio è fedele allo spirito del testo, anche se andrebbe temperato per non proiettare troppo sul Couffignal del 1952 concetti sviluppati pienamente solo decenni dopo
Writing, Not This Way, But That Way: Writing against AI's Syntactic Simulations of Dialectical Movement
I don’t write to express what I already know. If I did, I’d have nothing to say by the end of the first clause, and the sentence would be left dragging its tail behind it like a dog with nowhere to go. Writing, for me, begins in a state of productive error—less revelation than fumbling, a kind of intellectual squinting in the direction of something not yet visible, let alone nameable. ---- Non scrivo per esprimere ciò che già so. Se lo facessi, non avrei più nulla da dire alla fine della prima frase, e la frase si trascinerebbe dietro come un cane senza un posto dove andare. La scrittura, per me, inizia in uno stato di errore produttivo – più che rivelazione che tentennamento, una sorta di sguardo intellettuale socchiuso verso qualcosa di non ancora visibile, figuriamoci nominabile.
Meticciamento di razze e di culture: il senso delle Humanities
Il termine inglese 'Humanities' ha un ampio ventaglio di senso. Potremmo tradurre 'discipline umanistiche', 'studi umanistici', ma anche 'umanità'. Ed è doveroso poi considerare le 'Digital Humanities' rivisitazione delle Humanities tramite mezzi digitali e computazionali. Secondo alcuni non si può oggi più parlare di Humanities senza chiamare in causa l'intelligenza artificiale. Nell'articolo si sostiene invece che il senso delle 'Humanities' sta nel narrare ed ascoltare storie, generare e condividere conoscenze, senza bisogno di nessuna nuova macchina. E si narra quindi una storia che ha luogo all'Avana.
Cara vecchia mente paleolitica. Idolatria, feticismo e totemismo nel nostro rapporto con l’intelligenza artificiale.
Cosa vuole l’intelligenza artificiale? Perché questa apparentemente strana domanda dovrebbe richiedere la nostra attenzione?
L'intelligenza artificiale come strumentalismo automatizzato: come l'intelligenza artificiale mette in atto un'ideologia di utilità sconsiderata
Negli ultimi mesi ho visto una serie di seri tentativi di legare l'intelligenza artificiale all'ideologia, anche se la maggior parte inizia con una curiosa ambivalenza riguardo ai termini coinvolti. L'ideologia, un tempo l'orgoglioso cavallo di battaglia teorico della sinistra del dopoguerra, è diventata una sorta di spettro errante, occasionalmente invocato, raramente definito, ma il più delle volte scambiato per sinonimo di pregiudizio.
L'intelligenza artificiale non parla mai senza esclusioni
La gente parla del pregiudizio dell'IA come se apparisse solo nel momento in cui è uscito, come se si insinuasse semplicemente nella casella di testo durante la sequenza finale della generazione come un retrogusto retorico, come qualcosa aggiunto in ritardo e probabilmente risolvibile con un prompt più intelligente o un filtro più pulito o una pipeline di pre-addestramento più rigorosa, ma ciò che non viene quasi mai detto, almeno in pubblico, è che il pregiudizio satura già nel momento in cui l'informazione diventa informazione. vale a dire il momento in cui qualcosa viene trattato come strutturato, etichettato, recuperabile, modellato in un modo che lo rende disponibile a un sistema progettato per selezionare tra le possibilità e chiamare quella risposta al processo.