I came to education through experience, not entitlement—starting at a community college and later earning a Ph.D. from Princeton, where I was awarded the Whiting Fellowship for Distinguished Work in the Humanities. My work has always explored how media and technology shape cognition, authorship, and pedagogy—research I continued as a Brittain Postdoctoral Fellow in Digital Pedagogy at Georgia Tech, where I joined EdTech research with real-world classroom design.

I’ve worked in educational technology since the early 2000s, long before it was widely recognized as “EdTech.” My work blends systems thinking, networked cognition, and inclusive design—bringing academic rigor into scalable, equity-focused platforms. I’ve led education product strategy and learning experience design at the intersection of UX, pedagogy, and content—developing AI-integrated frameworks, SEL-centered tools, and professional learning experiences for real classrooms.

Alongside 15 years of teaching experience across K–12, community college, and university levels, I’ve spent the past decade leading content and product strategy in fast-scaling business environments. I've managed direct reports in content, marketing, and UX; built contributor networks of 200+ specialists; and developed platform-integrated instructional systems serving millions of users. I’ve created scalable content ecosystems and led cross-functional teams across education, pharma, AV, food manufacturing, and design—producing everything from blogs and white papers to instructional video series, product webpages, and multimedia course design.

I specialize in translating complexity into story, aligning instructional integrity with product and business outcomes, and designing learning systems that scale across modalities and users. My approach is shaped by a lifelong commitment to pedagogy, a deep respect for the complexity of learning, and a belief that education products should reflect the minds they serve.


AI-Human Dialogue as Cognitive Assemblage

Contemporary descriptions of AI–human exchange often rely on terms such as collaboration, co-creation, or co-reasoning. These labels register that knowledge develops through back-and-forth contribution rather than unilateral production. What they fail to explain is how meaning actually changes across the exchange. They describe outcomes without specifying mechanism.

On Mediation, Responsibility, and Genealogy as Method: A Response to Francesco Varanini

Francesco Varanini’s response to my essay Rethinking Meaning in the Age of AI, published on Stultifera Navis, approaches its subject with a seriousness of ethical intent that deserves recognition. His concern is clearly directed toward responsibility, judgment, and the conditions under which ethical agency remains possible in a technological environment increasingly shaped by automated systems. The difficulty lies elsewhere. His critique repeatedly misplaces the object under discussion, relying on a metaphor of enclosure that substitutes for analysis and attributes to my work positions it explicitly resists.

La filosofia su LinkedIn occupa una posizione strana...

"La filosofia è presente su Linkedin in mille salse, tutte più o meno simili, perchè sempre in fase di preparazione dentro camere dell'eco gestite ad arte dall'algoritmo di turno. Presenti sono anche i filosofi, i consulenti filosofici, i filosofi che fanno i social media manager e i content creator. Poi ci sono i filosofi pop, amati da algoritmi, influencer e moltitudini di seguaci che amano fare citazioni ed esercitarsi in pensieri filosofici senza aver letto un libro di filosofia. Su Linkedin la filosofia è sempre in azione ma sembra sempre un po' fuori posto. Come si fa a semplificare un pensiero filosofico complesso, ad articolarlo in brevi frasi e altrettanto brevi post? Come si fa a condividere una riflessione critica, profonda, non omologata, alternativa, impegnata? Come si fa a dialogare socraticamente ponendo domande alle quali oggi le IA sono bravissime a rispondere? La filosofia su Linkedin è immersa nel rumore, c'è da meravigliarsi e da essere contenti di quanti siano i filosofi che ancora osano agire da pensatori che si rifiutano di sparire in tutto questo rumore, ma anche noncuranza, disaffezione, disinteresse. " (Carlo Mazzucchelli)

Cosa succede quando la cognizione umana si adatta alla logica temporale dei sistemi predittivi?

... Supponendo che qualcosa inizi, supponendo che l'inizio sia una cosa anche qui, in sistemi in cui gli inizi sono già rielaborati e assorbiti in cicli precedenti, quindi nel momento in cui noti che il pensiero sembra più veloce è perché la lentezza è già stata sollevata e analizzata, e quella rimozione è stata valutata come un miglioramento, o rinominata come riduzione della latenza, o segnalati come inefficienza ed eliminati attraverso protocolli di allineamento che passano, reinseriscono, reindicizzano e sovrascrivono la traccia stessa di quello che una volta veniva chiamato ritardo.

Il lavoro di demistificazione dell'IA non finisce mai

L'era delle macchine vede diffondersi un "nuovo animismo" che ci costringe a vedere di nuovo la macchina come una cosa fatta, a ricordare che la sua intelligenza nasce dall'addestramento, e il suo addestramento nasce dai dati, e i suoi dati nascono da tracce umane che sono state appiattite, indicizzate e riorganizzate fino a farle assomigliare all'immagine speculare della ragione stessa.

Pensare in un'epoca di previsione algoritmica

C'è un tipo specifico di tempo – chiamatelo ritardo mentale o chiamatelo riflessione o chiamatelo come volete – che sembra sempre più difficile da abitare ora, e intendo ora nel senso che significa sia "questo momento storico" che "questo effettivo secondo di coscienza in cui vi trovate mentre leggete questo", e se questa confusione sembra già fuori luogo potrebbe essere perché l'adesso stesso è stato deformato, che è un po' il punto.

Le competenze di lettura ravvicinata si trasferiscono all'intelligenza artificiale?

C'è stata, di recente, una raffica di proclami ben intenzionati sulle virtù inaspettate dell'educazione letteraria nell'era degli interlocutori algoritmici. Un eccellente pezzo di Nick Potkalitsky, PhD offre quello che potrebbe essere definito un riavvicinamento pedagogico tra le testualità disordinate della narrativa e la peculiare fluidità dell'IA generativa.

L'intelligenza artificiale non parla mai senza esclusioni

La gente parla del pregiudizio dell'IA come se apparisse solo nel momento in cui è uscito, come se si insinuasse semplicemente nella casella di testo durante la sequenza finale della generazione come un retrogusto retorico, come qualcosa aggiunto in ritardo e probabilmente risolvibile con un prompt più intelligente o un filtro più pulito o una pipeline di pre-addestramento più rigorosa, ma ciò che non viene quasi mai detto, almeno in pubblico, è che il pregiudizio satura già nel momento in cui l'informazione diventa informazione. vale a dire il momento in cui qualcosa viene trattato come strutturato, etichettato, recuperabile, modellato in un modo che lo rende disponibile a un sistema progettato per selezionare tra le possibilità e chiamare quella risposta al processo.

L'intelligenza artificiale come strumentalismo automatizzato: come l'intelligenza artificiale mette in atto un'ideologia di utilità sconsiderata

Negli ultimi mesi ho visto una serie di seri tentativi di legare l'intelligenza artificiale all'ideologia, anche se la maggior parte inizia con una curiosa ambivalenza riguardo ai termini coinvolti. L'ideologia, un tempo l'orgoglioso cavallo di battaglia teorico della sinistra del dopoguerra, è diventata una sorta di spettro errante, occasionalmente invocato, raramente definito, ma il più delle volte scambiato per sinonimo di pregiudizio.

Toward understanding and preventing misalignment generalization

Large language models like ChatGPT don’t just learn facts—they pick up on patterns of behavior. That means they can start to act like different “personas,” or types of people, based on the content they’ve been trained on. Some of those personas are helpful and honest. Others might be careless or misleading. Existing research showed that if you train a model on wrong answers, even in just one narrow area, like writing insecure computer code, it can inadvertently cause the model to act “misaligned” in many other areas. This is called “emergent misalignment.” We studied why this happens.

Writing, Not This Way, But That Way: Writing against AI's Syntactic Simulations of Dialectical Movement

I don’t write to express what I already know. If I did, I’d have nothing to say by the end of the first clause, and the sentence would be left dragging its tail behind it like a dog with nowhere to go. Writing, for me, begins in a state of productive error—less revelation than fumbling, a kind of intellectual squinting in the direction of something not yet visible, let alone nameable. ---- Non scrivo per esprimere ciò che già so. Se lo facessi, non avrei più nulla da dire alla fine della prima frase, e la frase si trascinerebbe dietro come un cane senza un posto dove andare. La scrittura, per me, inizia in uno stato di errore produttivo – più che rivelazione che tentennamento, una sorta di sguardo intellettuale socchiuso verso qualcosa di non ancora visibile, figuriamoci nominabile.

Rilanciare il pensiero incompiuto - Rebranding the unfinished thougtht

Cosa succede a un pensiero incompiuto quando viene espresso dentro un sistema ingegnerizzato per per garantire certezza, prestazioni e leggibilità professionale? Questo testo esplora come pensare in pubblico – particolarmente su piattaforme come Linkedin, richiede una alfabetizzazione costante, ricorsiva, in sintonia non solo con le idee, ma anche con le infrastrutture che le rimodellano.