NOVITA'[1871]
Il futuro è stato
Il futuro sintetico, se fosse perfetto, sarebbe un futuro morto. La perdita non è la capacità di calcolare, ma il coraggio di interrompere il calcolo quando qualcosa chiede di essere ascoltato. Inutile temere che l’AI resti bloccata nel passato, né che possa davvero attraversare tutto il possibile. Il pericolo è che noi finiamo per confondere la stabilità del modello con la stabilità del mondo.
Come l'Intelligenza Artificiale ci sostituirà dal punto di vista lavorativo.
Alcune considerazioni sul pericolo di sostituzione umano – macchina intelligente e sulle possibili implicazioni partendo dalla nostra Costituzione per finire alla trasformazione del sistema pensionistico in un futuro che é molto più prossimo di quanto sembri nella progressione sostituiva 1-1 / 3-1 /5-1
Soft skills. From desirable to strategic - rereading Michael Porter in times of AI (AC.0 Manifesto)
“Aboard Stultifera Navis — a vessel guided by a compass of all Norths — the AC.0 Manifesto affirms the strategic centrality of human capacities in times and winds of Artificial Intelligence.”
Le abilità persuasive degli LLM ... verso altri LLM
Questo studio esamina la capacità persuasiva reciproca tra Large Language Models (LLM) attraverso un approccio sperimentale che confronta cinque modelli principali (ChatGPT, Claude, Grok, Gemini e DeepSeek) alternando i ruoli di persuasore e persuaso. Utilizzando una proposta fiscale controversa come caso di studio, ogni LLM ha generato argomentazioni tecniche ed emozionali per convincere gli altri modelli, misurando l'efficacia attraverso autovalutazioni percentuali della riduzione di convinzione. I risultati mostrano significative differenze tra modelli: Claude e DeepSeek emergono come i più persuasivi, con Claude particolarmente efficace nelle argomentazioni emozionali, mentre ChatGPT e DeepSeek dimostrano maggiore resistenza alla persuasione. Lo studio rivela una tendenziale forza persuasiva degli LLM verso i propri simili, potenzialmente superiore a quella documentata verso interlocutori umani, aprendo nuove prospettive di ricerca sulle dinamiche di influenza nell'ecosistema dell'intelligenza artificiale e sollevando questioni etiche per lo sviluppo di sistemi conversazionali.
E se l’IA stesse distruggendo la nostra società dall’interno?
Woodrow Hartzog e Jessica Silbey, due professori della Boston University hanno condiviso un nuovo paper dal titolo "How AI Destroys Institutions", che si presenta a tutti come un insieme di molteplici spunti di riflessione sulle IA attuali e sulla loro volontà di potenza e di accelerazione nella conquista del “mondo”umano.
A Crying child in the family/school
....𝐰𝐨𝐧’𝐭 𝐛𝐞 𝐒𝐚𝐯𝐞𝐝 𝐛𝐲 𝐚 𝐜𝐡𝐚𝐭𝐛𝐨𝐭 = 𝐜𝐡𝐢𝐥𝐝𝐫𝐞𝐧 𝐚𝐬 𝐩𝐚𝐰𝐧𝐬 𝐨𝐟 𝐟𝐚𝐭𝐞
Due chiacchiere con l’IA
Il caso del Mercator System. Un'avventura di Sherlock Holmes e Philip Marlowe
Quando Carlo Mazzucchelli mi ha lanciato la sua provocazione — scrivere un apocrifo di Conan Doyle, contribuire a uno "spazio sherlockiano" sulla Stultifera Navis — ho pensato immediatamente che non l'avrei fatto da solo. Per coerenza. E anche un po' per restituire la provocazione. Da tempo sostengo che il modo più interessante di lavorare con l'intelligenza artificiale non sia quello del prompt secco, del comando impartito a una macchina. Ma piuttosto quello del dialogo: un processo in cui l'umano e l'AI costruiscono insieme qualcosa che nessuno dei due avrebbe prodotto da solo. Lo chiamo approccio relazionale, Esomente, e ci credo abbastanza da averci costruito sopra una metodologia.
I rischi che corriamo
Il punto non è demonizzare l'intelligenza artificiale, ma riconoscere che l’IA sta diventando, se non lo è già, un moltiplicatore di strutture di potere.
Chi parla di sicurezza dell'Ai è sempre in buona fede o esiste una cospirazione?
Alcune riflessioni sulle numerose teorie di Ai malevola e sul modo con cui certuni gruppi di interesse potrebbero usare la paura dell'Ai forse per interessi più personali che realmente orientati a proteggere la razza umana.
L’errore di fondo: l’IA è neutra (e non neutrale)
Il vero nodo, allora, non è se l’IA sia neutra in teoria, ma chi decide come viene progettata, implementata e governata. Perché è in quelle decisioni — spesso invisibili — che si gioca il futuro della nostra autonomia, della coesione sociale e della dignità umana.
De la atención a la intención: el giro hermenéutico de la IA conversacional
La pregunta ya es el nuevo territorio de disputa: quien la anticipa, orienta la mente.
Frankenstein e l’algoritmo: etica e sostenibilità nell’era digitale
Frankenstein ci ricorda che la tecnologia guidata dall’ambizione senza etica, può trasformarsi in qualcosa che ci sfugge, che ci ferisce, che ci divide. Ma ci offre anche una speranza: quella di ripensare il nostro ruolo di creatori, non come semplici innovatori, ma come custodi del futuro.
How AI-generated prose diverges from human writing and why it matters
IA generative e umani ormai si imitano a vicenda. Molti umani però non si rendono conto che la loro imitazione non è altro che il risultato dell'imitazione delle IA che utilizzano. Ne deriva un quadro deprimente, tragico, di persone che si credono intelligenti ma lo sono sempre meno, e di intelligenze artificiali che nel frattempo diventano (forse) più intelligenti, sicuramente sempre più brave ad imitare il comportamento e "l'intelligenza)" degli umani. Tutto ciò, chi non condividesse la riflessione qui proposta, è chiamato a riflettere su come i prodotti elaborati dalle IA in risposta alle domande degli umani vengano riprodotti e condivisi sulle piattaforme social. L'IA ha un suo linguaggio, un suo stile, dei tic(toc) sintattici e algoritmici che stanno cambiando il linguaggio, lo stile di scrittura e le abitudini personali di moltitudini di persone. Un lavoro di ricerca condotto da Marina Adami e pubblicato su Reuters Institute spiega molte cose, suggerisce innumerevoli spunti di riflessione, in una parola fa riflettere, insegna anche a usare con maggiore intelligenza le IA generative.
Una teoria politica dell’AI: verso l’intelligenza collettiva
Questo articolo non pretende di offrire risposte definitive. Al contrario, vuole chiudersi con un impegno: trattare queste domande non come un esercizio teorico, ma come una necessità politica urgente. Perché se l’AI diventerà parte delle fondamenta della nostra vita collettiva, allora il modo in cui la progetteremo, la governeremo e la criticheremo determinerà non solo il futuro della tecnologia, ma il futuro stesso della democrazia.
La privatizzazione del pensiero
Ovvero: la questione non è se il Re sia buono o cattivo. La questione è perché ci sia un Re.
AI 2027
Segnalazione di un paper scritto da Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland, Romeo Dean. Il paper è disponibile sul sito del "The AI Futures Project" creato da un piccolo gruppo di ricerca, sostenuto da donazioni e grant pubblici, che fa previsioni sull'IA forecasting the future of AI.
Understand the Dangers of AI Hypes
Happy new year with Goethe
If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All
Un testo di Eliezer Yudkowsky e Nate Soares pubblicato nel 2025 che richiama l’attenzione di tutti con l’invito a riflettere criticamente sull’evoluzione in corso delle Intelligenze artificiali, sull’uso diffuso, acritico e superficiale che ne viene fatto e sulle narrazioni tendenzialmente tecno-ottimiste dominanti. Il testo rappresenta il tentativo più diretto e accessibile di Eliezer Yudkowsky e Nate Soares di comunicare a un pubblico ampio la loro tesi sulla minaccia esistenziale rappresentata dall'intelligenza artificiale superintelligente (ASI).
Welcome 2026
We must govern how technologies impact our perceived reality, we must be aware because without consciousness we are just part of an endless show.