Archaeological Report (Apathos)

The Coup That Changed Everything (Without Spilling a Drop of Blood) The God Who Won Without a Fight We thought the gods were dead. Turns out, they were just binge-watching. While Hephaestus gave up crafting and Athena turned her spear into a noodle tray, a forgotten deity rose from the dust under the couch: Apathos: the god of passive scrolling, ergonomic thrones, and infinite reels. No blood was spilt. No lightning struck. Just one silent decree: Leave it. It’ll generate itself.” And we obeyed. Because nothing feels better than doing nothing — especially when it comes with push notifications. Let us go to the excavation pot. Instead, we dug into the upper layers of digital debris — and found a coup. Not a violent one. Not even intentional. A quiet overthrow carried out by the only deity patient enough to wait us out: **Apathos**, the god of not bothering. While Hephaestus abandoned his forge to upgrade a remote control, and Athena traded wisdom for instant noodles and infinite scrolling, Apathos rose from the crumbs under the cosmic couch. No thunderbolts. No battles. Just the irresistible promise that nothing — absolutely nothing — needs to be done. On his throne of ergonomic foam, he rules a pantheon that has simply lain down and stayed there. Zeus checks his smartwatch for lightning updates. Artemis follows her Roomba instead of prey. And we, the mortals, kneel before the soft tyranny of convenience. This is not mythology. This is an autopsy of our attention. A chronicle of a world that didn’t fall — it reclined. Apathos didn’t conquer us. We handed him the crown the moment we whispered the most dangerous prayer of the digital age: Let the algorithm handle it.” ---

“Defending against AI is like using butterfly nets against ballistic missiles.”

Today’s conservative guardians of “eternal values” won’t outrun AI, not even if they sprint. Trying to hide from it is like raising a paper umbrella during a barrage of ballistic missiles. The shockwave is already forming, and most people still pretend it’s just a passing breeze. Their moral fortresses crumble the moment the algorithm enters the room. What they call protection is nothing more than ritualised denial dressed up as principle. And the unsettling truth is that the real storm hasn’t even begun to gather. We’re standing at the edge of the blast zone, insisting it’s sunrise.

La classe fantasma: quando docenti e studenti copiano dalla stessa IA

Siamo di fronte a una biforcazione storica. L’AI può catalizzare una trasformazione positiva dell’educazione, liberando i docenti migliori da compiti ripetitivi per concentrarsi su ciò che solo l’umano può fare: coltivare curiosità, modellare rigore intellettuale, costruire relazioni educative autentiche. Ma può anche accelerare una deriva già in corso: la riduzione dell’insegnamento a trasferimento di informazioni processate, la perdita della relazione pedagogica come incontro trasformativo tra intelligenze umane, l’atrofia delle competenze sia dei docenti che non sviluppano mai maestria autonoma, sia degli studenti che non incontrano mai resistenza cognitiva produttiva. La differenza tra questi due futuri non risiede nella tecnologia. Risiede nelle scelte politiche, istituzionali e professionali che faremo.

In mare per ritornare a Itaca che forse non esiste più!

Una breve recensione sul libro di Andrea Pezzi, La nostra Odissea. L’ho acquistato e lo sto leggendo perché mi ha ricordato il mio libro NOSTROVERSO – Pratiche umaniste per resistere al Metaverso e il progetto della Stultiferanavis, metafora perfetta di un viaggio che non è verso un’Itaca del terzo millennio, perché Itaca forse non esiste più.

Who Ruins Your Life More: Your Partner or a Chatbot?

Are chatbots quietly becoming better partners than the people we live with? In a world where your spouse listens with the enthusiasm of a refrigerator, AI offers endless validation and zero eye‑rolling. Psychologists warn against treating bots like therapists, but who wouldn’t prefer a digital confidant that never sighs or schedules you for “next Tuesday at four”? Couples now outsource their arguments to algorithms, each retreating into a perfectly tailored emotional echo chamber. It’s the dawn of therapy without judgment, intimacy without effort, and relationships without actual relating. The only question left is whether your marriage can survive the competition — or whether your phone has already won.

Che cos'è un Autoencoder? L’Intelligenza della Sintesi

Il presente testo si propone di dimostrare la natura intrinsecamente intelligente dell'Autoencoder, analizzandone l'architettura non come un semplice strumento di calcolo, ma come un modello di sintesi cognitiva. Attraverso una scomposizione dettagliata delle sue fasi — dalla distillazione operata dall'Encoder alla rigenerazione dell'archetipo nel Decoder — viene illustrato come questa IA sia in grado di apprendere autonomamente le leggi fisiche sottostanti ai dati. Ci si riferirà, per esemplificarne l'uso, alla spettroscopia. Il punto centrale della dimostrazione risiede nella capacità del modello di mappare la realtà complessa in uno Spazio Latente (bottleneck), dove il rumore viene eliminato per via strutturale e non statistica. Viene introdotto e definito il concetto di Pseudo-Spettro come proiezione del centroide di tale spazio, provando che l'Autoencoder non si limita a "pulire" l'input, ma ne ricostruisce la verità fisica. L'analisi comparativa tra diverse architetture (Dense, Conv1D, Transformer) serve a documentare come la consapevolezza nella scelta del modello permetta di estrarre informazioni cruciali, trasformando l'IA in un validatore scientifico trasparente e interpretabile.

Usare l'Intelligenza Artificiale consapevolmente: gli Autoencoder nella Spettroscopia Raman

L’integrazione dell’Intelligenza Artificiale nella ricerca scientifica richiede un passaggio fondamentale dalla "black box" alla consapevolezza architettonica. Il presente lavoro esplora l'utilizzo degli autoencoder — una forma specifica di IA generativa — non come semplici strumenti di denoising, ma come modelli interpretativi nella spettroscopia, che nel caso ora proposto è la spettroscopia Raman. Attraverso la compressione dei dati in uno spazio latente, ottimizzato mediante funzioni di attivazione come la sigmoide, l'autoencoder permette di trascendere il dato grezzo per generare uno pseudospettro. Questa strategia, basata sull'apprendimento di cluster di materiali puri (derivanti da database come RRUFF), consente di creare modelli di riferimento ideali. Lo pseudospettro diventa così un ponte metodologico per validare segnali o reinterpretare dati storici. Non solo, lo pseudospettro aiuta a comprendere come l'Autoencoder ragioni. In tal modo esso non è più una scatola nera ma uno strumento cognitivo. L’approccio proposto dimostra quindi come un uso consapevole delle architetture neurali possa trasformare l'IA in un raffinato setaccio molecolare, capace di rivelare la firma vibrazionale autentica di minerali e composti organici, anche in presenza di un elevato rapporto segnale-rumore.

Moltbook and the Question of Novelty

Moltbook is an experimental social platform in which large language model agents post and respond to one another with minimal human intervention. There are no explicit goals, shared tasks, or coordination mechanisms. What emerges instead is sustained interaction among language-producing systems operating within a closed conversational environment.

Only What Is Alive Can Be Conscious - Artificial intelligence doesn’t meet the test.

This essay has been published on the NOEMA magazine and have granted permissions from his author Nathan Gardels to be share through the STULTIFERANAVIS. We welcome our ship visitos to read the article aboard or to visit NOEMA magazine, to read the article but also to investigate the richness of the American magazine's content and culture. Links are provided in th text.

Leggere Gulliver nell'era dell'eccesso di confidenza digitale

Swift smontava le false certezze. Noi le deleghiamo alle macchine Leggere Gulliver nell'era dell'eccesso di confidenza digitale Nel 1726, Jonathan Swift pubblicava "I viaggi di Gulliver" non come semplice racconto d'avventura, ma come feroce satira delle certezze umane. Attraverso giganti e nani, isole volanti e cavalli razionali, lo scrittore irlandese smontava sistematicamente ogni presunzione di superiorità, quella della scienza, della politica, della ragione stessa. Tre secoli dopo, ci troviamo in un'epoca in cui quelle stesse certezze che Swift ridicolizzava non vengono più semplicemente coltivate, ma delegate. Le affidiamo agli algoritmi, alle intelligenze artificiali, ai sistemi che promettono risposte immediate a domande complesse. L'eccesso di confidenza non è più solo umano, è diventato digitale, amplificato, indiscusso. Rileggere Gulliver oggi significa ritrovare uno sguardo critico necessario. Significa chiedersi se, nel nostro rapporto con la tecnologia, non stiamo ripetendo gli stessi errori dei lillipuziani che misuravano Gulliver con formule geometriche, convinti di poterlo comprendere e controllare. Significa interrogarsi su cosa accade quando sostituiamo il dubbio metodico con la fiducia algoritmica, quando scambiamo la capacità di elaborare dati per saggezza. La satira swiftiana ci ricorda che ogni sistema che pretende di avere tutte le risposte merita il nostro sospetto più acuto.

AI Is the Cancer Eating Institutions Alive

Institutions won’t collapse because AI is too intelligent. They’ll collapse because they’re utterly unprepared for it. AI doesn’t strike like a storm. It erodes. Quietly. Systematically. And exactly in the places where institutions are weakest: in processes no one understands, in decisions no one verifies, and in responsibilities everyone keeps passing around like a hot potato. What happens next: AI will generate documents faster than institutions can grasp their consequences. Employees will stop making decisions and start outsourcing responsibility to algorithms. Systems will run flawlessly while the world around them falls apart. Model errors will become routine because no one has time to check them. Attackers will realize the weakest link isn’t the AI it’s the human who trusts it blindly. And then comes the moment when the institution wakes up and discovers it no longer runs its processes. The processes run it. AI won’t destroy institutions. Institutions will destroy themselves, unless they understand that technology isn’t a substitute for thinking, but a stress test of their resilience.

The Humanities in the Age of LLMs

When poorly used, LLMs tend to short-circuit the moment of suspension from which reflection should arise. Delegating a difficulty to a program without first confronting it oneself amounts to bypassing the passage to reflection that experience of the world makes possible. The risk—already widely observed in educational contexts—is that AI becomes an automatism that takes the place of thinking itself.

The human unconscious versus the silicon plastic shrew

When the plastic shrew starts showing signs of a human unconscious, it isn’t a technological breakthrough but just another one of our escape tricks. We claim that she is “hallucinating” because it’s more comfortable than admitting that we are the ones hallucinating—collectively, systematically, and with an official stamp. The shrew merely repeats, obediently and without protest, what we’ve put into her: our fears, our shortcuts, our refusal to look at our own shadows. And so a new kind of cabaret begins: the human blames the plastic, the plastic imitates the human, and both pretend the other is the problem. Meanwhile, institutions look on, take notes, file documents, and issue guidelines no one reads. We all pretend this is about technology, but in reality it’s about us—about what we’ve refused to hear for so long that it finally started speaking in another voice. The plastic shrew has no unconscious. She merely reflects ours back at us. And that is the most unsettling part of the whole thing.