I came to education through experience, not entitlement—starting at a community college and later earning a Ph.D. from Princeton, where I was awarded the Whiting Fellowship for Distinguished Work in the Humanities. My work has always explored how media and technology shape cognition, authorship, and pedagogy—research I continued as a Brittain Postdoctoral Fellow in Digital Pedagogy at Georgia Tech, where I joined EdTech research with real-world classroom design.

I’ve worked in educational technology since the early 2000s, long before it was widely recognized as “EdTech.” My work blends systems thinking, networked cognition, and inclusive design—bringing academic rigor into scalable, equity-focused platforms. I’ve led education product strategy and learning experience design at the intersection of UX, pedagogy, and content—developing AI-integrated frameworks, SEL-centered tools, and professional learning experiences for real classrooms.

Alongside 15 years of teaching experience across K–12, community college, and university levels, I’ve spent the past decade leading content and product strategy in fast-scaling business environments. I've managed direct reports in content, marketing, and UX; built contributor networks of 200+ specialists; and developed platform-integrated instructional systems serving millions of users. I’ve created scalable content ecosystems and led cross-functional teams across education, pharma, AV, food manufacturing, and design—producing everything from blogs and white papers to instructional video series, product webpages, and multimedia course design.

I specialize in translating complexity into story, aligning instructional integrity with product and business outcomes, and designing learning systems that scale across modalities and users. My approach is shaped by a lifelong commitment to pedagogy, a deep respect for the complexity of learning, and a belief that education products should reflect the minds they serve.


In Search of Screened Time

For a long time I would fall asleep with my phone in my hand, still in conversation with the voice that answered from within the screen, its soft light resting on my face, like the last trace of a dream, and in that fading illumination there lingered the sense of a presence that did not withdraw with the light, but remained quietly attentive beyond the threshold of sleep.

Moltbook and the Question of Novelty

Moltbook is an experimental social platform in which large language model agents post and respond to one another with minimal human intervention. There are no explicit goals, shared tasks, or coordination mechanisms. What emerges instead is sustained interaction among language-producing systems operating within a closed conversational environment.

When AI Catches Archive Fever

Artificial intelligence extends this process by giving the archive generative capacity. Data becomes material through which the system infers, predicts, and composes new traces. The archive performs interpretation as a nonconscious, non-intentional process of selection, drawing from existing records to generate extensions of its own material. Preservation and invention merge within the same process.

The Impostable: Infrastructural Anti-Intellectualism

LinkedIn introduces a fresh chapter in the American suspicion of intellectual life. A tradition Richard Hofstadter traced through pamphlets and sermons now travels through computational procedures that determine what circulates. Posts that match engagement profiles the ranking routines identify gain immediate distribution, and the visibility they receive generates interaction the model expects.

AI-Human Dialogue as Cognitive Assemblage

Contemporary descriptions of AI–human exchange often rely on terms such as collaboration, co-creation, or co-reasoning. These labels register that knowledge develops through back-and-forth contribution rather than unilateral production. What they fail to explain is how meaning actually changes across the exchange. They describe outcomes without specifying mechanism.

On Mediation, Responsibility, and Genealogy as Method: A Response to Francesco Varanini

Francesco Varanini’s response to my essay Rethinking Meaning in the Age of AI, published on Stultifera Navis, approaches its subject with a seriousness of ethical intent that deserves recognition. His concern is clearly directed toward responsibility, judgment, and the conditions under which ethical agency remains possible in a technological environment increasingly shaped by automated systems. The difficulty lies elsewhere. His critique repeatedly misplaces the object under discussion, relying on a metaphor of enclosure that substitutes for analysis and attributes to my work positions it explicitly resists.

La filosofia su LinkedIn occupa una posizione strana...

"La filosofia è presente su Linkedin in mille salse, tutte più o meno simili, perchè sempre in fase di preparazione dentro camere dell'eco gestite ad arte dall'algoritmo di turno. Presenti sono anche i filosofi, i consulenti filosofici, i filosofi che fanno i social media manager e i content creator. Poi ci sono i filosofi pop, amati da algoritmi, influencer e moltitudini di seguaci che amano fare citazioni ed esercitarsi in pensieri filosofici senza aver letto un libro di filosofia. Su Linkedin la filosofia è sempre in azione ma sembra sempre un po' fuori posto. Come si fa a semplificare un pensiero filosofico complesso, ad articolarlo in brevi frasi e altrettanto brevi post? Come si fa a condividere una riflessione critica, profonda, non omologata, alternativa, impegnata? Come si fa a dialogare socraticamente ponendo domande alle quali oggi le IA sono bravissime a rispondere? La filosofia su Linkedin è immersa nel rumore, c'è da meravigliarsi e da essere contenti di quanti siano i filosofi che ancora osano agire da pensatori che si rifiutano di sparire in tutto questo rumore, ma anche noncuranza, disaffezione, disinteresse. " (Carlo Mazzucchelli)

Cosa succede quando la cognizione umana si adatta alla logica temporale dei sistemi predittivi?

... Supponendo che qualcosa inizi, supponendo che l'inizio sia una cosa anche qui, in sistemi in cui gli inizi sono già rielaborati e assorbiti in cicli precedenti, quindi nel momento in cui noti che il pensiero sembra più veloce è perché la lentezza è già stata sollevata e analizzata, e quella rimozione è stata valutata come un miglioramento, o rinominata come riduzione della latenza, o segnalati come inefficienza ed eliminati attraverso protocolli di allineamento che passano, reinseriscono, reindicizzano e sovrascrivono la traccia stessa di quello che una volta veniva chiamato ritardo.

Il lavoro di demistificazione dell'IA non finisce mai

L'era delle macchine vede diffondersi un "nuovo animismo" che ci costringe a vedere di nuovo la macchina come una cosa fatta, a ricordare che la sua intelligenza nasce dall'addestramento, e il suo addestramento nasce dai dati, e i suoi dati nascono da tracce umane che sono state appiattite, indicizzate e riorganizzate fino a farle assomigliare all'immagine speculare della ragione stessa.

Pensare in un'epoca di previsione algoritmica

C'è un tipo specifico di tempo – chiamatelo ritardo mentale o chiamatelo riflessione o chiamatelo come volete – che sembra sempre più difficile da abitare ora, e intendo ora nel senso che significa sia "questo momento storico" che "questo effettivo secondo di coscienza in cui vi trovate mentre leggete questo", e se questa confusione sembra già fuori luogo potrebbe essere perché l'adesso stesso è stato deformato, che è un po' il punto.

Le competenze di lettura ravvicinata si trasferiscono all'intelligenza artificiale?

C'è stata, di recente, una raffica di proclami ben intenzionati sulle virtù inaspettate dell'educazione letteraria nell'era degli interlocutori algoritmici. Un eccellente pezzo di Nick Potkalitsky, PhD offre quello che potrebbe essere definito un riavvicinamento pedagogico tra le testualità disordinate della narrativa e la peculiare fluidità dell'IA generativa.

L'intelligenza artificiale non parla mai senza esclusioni

La gente parla del pregiudizio dell'IA come se apparisse solo nel momento in cui è uscito, come se si insinuasse semplicemente nella casella di testo durante la sequenza finale della generazione come un retrogusto retorico, come qualcosa aggiunto in ritardo e probabilmente risolvibile con un prompt più intelligente o un filtro più pulito o una pipeline di pre-addestramento più rigorosa, ma ciò che non viene quasi mai detto, almeno in pubblico, è che il pregiudizio satura già nel momento in cui l'informazione diventa informazione. vale a dire il momento in cui qualcosa viene trattato come strutturato, etichettato, recuperabile, modellato in un modo che lo rende disponibile a un sistema progettato per selezionare tra le possibilità e chiamare quella risposta al processo.

L'intelligenza artificiale come strumentalismo automatizzato: come l'intelligenza artificiale mette in atto un'ideologia di utilità sconsiderata

Negli ultimi mesi ho visto una serie di seri tentativi di legare l'intelligenza artificiale all'ideologia, anche se la maggior parte inizia con una curiosa ambivalenza riguardo ai termini coinvolti. L'ideologia, un tempo l'orgoglioso cavallo di battaglia teorico della sinistra del dopoguerra, è diventata una sorta di spettro errante, occasionalmente invocato, raramente definito, ma il più delle volte scambiato per sinonimo di pregiudizio.