NOVITA'[1620]
L’Europa, la geopolitica e l’intelligenza artificiale.
Le big tech non sfidano gli Stati forti: li prolungano. Gli Stati forti, a loro volta, non regolano davvero le big tech: le incorporano come infrastrutture strategiche. È una simbiosi funzionale, fondata sulla reciproca capacità di imporre costi agli altri. Questa è la storia di come l'Europa abbia costruito l'infrastruttura più critica e fondamentale dell'era digitale e di come abbia perso ogni controllo su di essa.
Only What Is Alive Can Be Conscious - Artificial intelligence doesn’t meet the test.
This essay has been published on the NOEMA magazine and have granted permissions from his author Nathan Gardels to be share through the STULTIFERANAVIS. We welcome our ship visitos to read the article aboard or to visit NOEMA magazine, to read the article but also to investigate the richness of the American magazine's content and culture. Links are provided in th text.
Democrazia algoritmica (POV #22)
Jaron Lanier e Cathy O’Neil: Gli algoritmi possono essere compatibili con la democrazia, oppure la loro logica economica e tecnica la sta lentamente svuotando dall’interno? Viviamo immersi nei dati, ma comprendiamo sempre meno i dispositivi che li trasformano in decisioni. Che cosa accade quando scelte politiche, economiche e sociali vengono delegate a modelli matematici? Gli algoritmi promettono efficienza, oggettività, razionalità. Ma chi li progetta? Chi li governa? Chi ne subisce gli effetti? La cosiddetta “democrazia algoritmica” si presenta così come una forma di governo senza elezioni né dibattito pubblico, un potere incorporato nei sistemi che regolano l’accesso al credito, la selezione del lavoro, la circolazione delle informazioni, le pratiche di sicurezza e sorveglianza. Non è una nuova istituzione, ma un’infrastruttura decisionale che agisce sotto la soglia della visibilità politica.
La vera alfabetizzazione all’AI non è saperla usare. È sapere quando fermarsi.
L’alfabetizzazione all’intelligenza artificiale viene spesso ridotta a una questione di competenza tecnica. Ma c’è una dimensione più sottile, e più umana, che riguarda il momento in cui scegliamo di non delegare. Questo testo esplora il valore cognitivo e morale del fermarsi, in un’epoca che ci spinge a ottimizzare tutto.
AI Is the Cancer Eating Institutions Alive
Institutions won’t collapse because AI is too intelligent. They’ll collapse because they’re utterly unprepared for it. AI doesn’t strike like a storm. It erodes. Quietly. Systematically. And exactly in the places where institutions are weakest: in processes no one understands, in decisions no one verifies, and in responsibilities everyone keeps passing around like a hot potato. What happens next: AI will generate documents faster than institutions can grasp their consequences. Employees will stop making decisions and start outsourcing responsibility to algorithms. Systems will run flawlessly while the world around them falls apart. Model errors will become routine because no one has time to check them. Attackers will realize the weakest link isn’t the AI it’s the human who trusts it blindly. And then comes the moment when the institution wakes up and discovers it no longer runs its processes. The processes run it. AI won’t destroy institutions. Institutions will destroy themselves, unless they understand that technology isn’t a substitute for thinking, but a stress test of their resilience.
Only What Is Alive Can Be Conscious
The Humanities in the Age of LLMs
When poorly used, LLMs tend to short-circuit the moment of suspension from which reflection should arise. Delegating a difficulty to a program without first confronting it oneself amounts to bypassing the passage to reflection that experience of the world makes possible. The risk—already widely observed in educational contexts—is that AI becomes an automatism that takes the place of thinking itself.
Intervista ImPossibile a Jean-Michel Basquiat (IIP #21)
Segno, Simbolo, Sintassi e l’AI Un dialogo immaginario su come l’esperienza di Jean-Michel Basquiat - la sua grammatica visiva fatta di parole e simboli - possa offrire un’occasione per ripensare criticamente le questioni contemporanee legate all’intelligenza artificiale. Questa intervista impossibile problematizza l’AI come spazio di senso che si confronta con categorie profonde e politiche quali l’identità, il potere, il linguaggio e la marginalità. È un confronto tra due modi di produrre significato, la pittura che nasce dall’esperienza vissuta e dai conflitti sociali, e i sistemi computazionali che apprendono da dati preesistenti. Basquiat emerse dalla scena dei graffiti di New York negli anni ’70, prima sotto il nome di SAMO, poi come uno dei principali esponenti del neoespressionismo internazionale. In meno di un decennio, trasformò la pittura attraverso un repertorio visivo fatto di testo, segni ruvidi, simboli e un uso iperattivo di parole e numeri che non separano immagine da linguaggio ma li intrecciano come vettori di critica sociale e storica. L’opera di Basquiat ruota attorno a contraddizioni e dicotomie - ad esempio potere/oppresso, razza/classe, esperienza interna/esterna - che mettono in discussione la gerarchia dei segni nel discorso culturale e invitano a leggere l’AI non solo come strumento, ma come dispositivo che riconfigura le gerarchie interpretative stesse.
Il potere invisibile dell’AI (POV #21)
Shoshana Zuboff e Evgeny Morozov: L’AI è una nuova fase del capitalismo o un modo per trasformare decisioni politiche in soluzioni tecniche? Quando parliamo di intelligenza artificiale, raramente ci limitiamo a parlare di una tecnologia. Dietro l’AI si muovono questioni che riguardano l’economia, il potere, i modelli di società che stiamo costruendo. L’AI può essere letta come il motore di una nuova fase del capitalismo, fondata sull’estrazione dei dati e sulla previsione dei comportamenti futuri. Ma può anche essere interpretata come il prodotto di una narrazione che trasforma temi politici in problemi tecnici e conflitti sociali in questioni di efficienza. Shoshana Zuboff ed Evgeny Morozov rappresentano due tra le voci più autorevoli di questa critica. La prima analizza l’AI come infrastruttura economica del capitalismo della sorveglianza, un sistema che monetizza l’esperienza umana convertendola in informazione predittiva. Il secondo la interpreta come espressione di un’ideologia tecnologica che promette soluzioni automatiche e, così facendo, sottrae le scelte collettive al dibattito democratico. Il loro confronto non riguarda soltanto il funzionamento degli algoritmi, ma il modo in cui il digitale sta ridefinendo il potere nel XXI secolo.
Un nuovo universalismo tecnocratico?
Una tecnologia è utile finché resta uno strumento potente e dichiarato come tale; il problema nasce quando l’IA viene trattata come un quasi-soggetto, una quasi-presenza, che sembra dialogare, comprendere, rispondere. E non è una confusione innocente perché indebolisce la capacità umana di riconoscersi come origine delle decisioni. Una riflessione a partire dalla Costituzione di Anthropic per Claude e la semantic interoperability
Aesop was at Davos forum
“A knife is a tool. You can use a knife to cut salad or to murder someone, but it is your decision what to do with the knife. AI is a knife that can decide by itself whether to cut salad or to commit murder.” (Yuval Noah Harari)
Il futuro è stato
Il futuro sintetico, se fosse perfetto, sarebbe un futuro morto. La perdita non è la capacità di calcolare, ma il coraggio di interrompere il calcolo quando qualcosa chiede di essere ascoltato. Inutile temere che l’AI resti bloccata nel passato, né che possa davvero attraversare tutto il possibile. Il pericolo è che noi finiamo per confondere la stabilità del modello con la stabilità del mondo.
X-men e la Sostenibilità Digitale: i mutanti contro il bias algoritmico
di Luca Sesini e Beppe Carrella
Il nichilismo contemporaneo (nell'era dell'Intelligenza Artificiale)
Questo articolo nasce da un pensiero che ho in mente da tempo e su cui, probabilmente, si riflette sempre poco: la noia. Premetto che non è mia intenzione scomodare filosofi o psicologi, né proporre verità definitive; il mio intento è semplicemente quello di una persona che prova a stimolare una riflessione condivisa.
When AI Catches Archive Fever
Artificial intelligence extends this process by giving the archive generative capacity. Data becomes material through which the system infers, predicts, and composes new traces. The archive performs interpretation as a nonconscious, non-intentional process of selection, drawing from existing records to generate extensions of its own material. Preservation and invention merge within the same process.
Chi governa l’economia AI? (POV #20)
Yanis Varoufakivs e Mariana Mazzucato: tecno-feudalesimo vs Stato imprenditore. Quale sarà l’impatto dell’Intelligenza Artificiale sulla nostra democrazia? Chi deve governare l’AI, lo Stato o il mercato? In questo articolo di POV sono a confronto le visioni di due importanti economisti contemporanei che si occupano in particolare degli aspetti di politica, economia e democrazia. Yanis Varoufakis interpreta l’AI come parte di una transizione verso un “tecno-feudalesimo”, dove pochi soggetti digitali esercitano un potere extra-statale, estraendo valore e sottraendolo alla sfera democratica. Mariana Mazzucato, al contrario, individua nello Stato l’unico soggetto in grado di orientare l’innovazione tecnologica attraverso missioni pubbliche, affinché i risultati dell’AI siano condivisi e messi al servizio del bene comune. Due approcci diversi - uno più conflittuale e orientato alla redistribuzione dal basso, l’altro più istituzionale e centrato sulla progettazione collettiva - che ci costringono a ripensare i fondamenti della democrazia economica nell’era algoritmica.
Tecnofobi o tecnoconsapevoli? La rivolta contro l’Intelligenza Artificiale
Chi dice 'no' all'IA e perché: mappa di un dissenso crescente
Le abilità persuasive degli LLM ... verso altri LLM
Questo studio esamina la capacità persuasiva reciproca tra Large Language Models (LLM) attraverso un approccio sperimentale che confronta cinque modelli principali (ChatGPT, Claude, Grok, Gemini e DeepSeek) alternando i ruoli di persuasore e persuaso. Utilizzando una proposta fiscale controversa come caso di studio, ogni LLM ha generato argomentazioni tecniche ed emozionali per convincere gli altri modelli, misurando l'efficacia attraverso autovalutazioni percentuali della riduzione di convinzione. I risultati mostrano significative differenze tra modelli: Claude e DeepSeek emergono come i più persuasivi, con Claude particolarmente efficace nelle argomentazioni emozionali, mentre ChatGPT e DeepSeek dimostrano maggiore resistenza alla persuasione. Lo studio rivela una tendenziale forza persuasiva degli LLM verso i propri simili, potenzialmente superiore a quella documentata verso interlocutori umani, aprendo nuove prospettive di ricerca sulle dinamiche di influenza nell'ecosistema dell'intelligenza artificiale e sollevando questioni etiche per lo sviluppo di sistemi conversazionali.
E se l’IA stesse distruggendo la nostra società dall’interno?
Woodrow Hartzog e Jessica Silbey, due professori della Boston University hanno condiviso un nuovo paper dal titolo "How AI Destroys Institutions", che si presenta a tutti come un insieme di molteplici spunti di riflessione sulle IA attuali e sulla loro volontà di potenza e di accelerazione nella conquista del “mondo”umano.
A Crying child in the family/school
....𝐰𝐨𝐧’𝐭 𝐛𝐞 𝐒𝐚𝐯𝐞𝐝 𝐛𝐲 𝐚 𝐜𝐡𝐚𝐭𝐛𝐨𝐭 = 𝐜𝐡𝐢𝐥𝐝𝐫𝐞𝐧 𝐚𝐬 𝐩𝐚𝐰𝐧𝐬 𝐨𝐟 𝐟𝐚𝐭𝐞