I came to education through experience, not entitlement—starting at a community college and later earning a Ph.D. from Princeton, where I was awarded the Whiting Fellowship for Distinguished Work in the Humanities. My work has always explored how media and technology shape cognition, authorship, and pedagogy—research I continued as a Brittain Postdoctoral Fellow in Digital Pedagogy at Georgia Tech, where I joined EdTech research with real-world classroom design.

I’ve worked in educational technology since the early 2000s, long before it was widely recognized as “EdTech.” My work blends systems thinking, networked cognition, and inclusive design—bringing academic rigor into scalable, equity-focused platforms. I’ve led education product strategy and learning experience design at the intersection of UX, pedagogy, and content—developing AI-integrated frameworks, SEL-centered tools, and professional learning experiences for real classrooms.

Alongside 15 years of teaching experience across K–12, community college, and university levels, I’ve spent the past decade leading content and product strategy in fast-scaling business environments. I've managed direct reports in content, marketing, and UX; built contributor networks of 200+ specialists; and developed platform-integrated instructional systems serving millions of users. I’ve created scalable content ecosystems and led cross-functional teams across education, pharma, AV, food manufacturing, and design—producing everything from blogs and white papers to instructional video series, product webpages, and multimedia course design.

I specialize in translating complexity into story, aligning instructional integrity with product and business outcomes, and designing learning systems that scale across modalities and users. My approach is shaped by a lifelong commitment to pedagogy, a deep respect for the complexity of learning, and a belief that education products should reflect the minds they serve.


L'intelligenza artificiale non parla mai senza esclusioni

La gente parla del pregiudizio dell'IA come se apparisse solo nel momento in cui è uscito, come se si insinuasse semplicemente nella casella di testo durante la sequenza finale della generazione come un retrogusto retorico, come qualcosa aggiunto in ritardo e probabilmente risolvibile con un prompt più intelligente o un filtro più pulito o una pipeline di pre-addestramento più rigorosa, ma ciò che non viene quasi mai detto, almeno in pubblico, è che il pregiudizio satura già nel momento in cui l'informazione diventa informazione. vale a dire il momento in cui qualcosa viene trattato come strutturato, etichettato, recuperabile, modellato in un modo che lo rende disponibile a un sistema progettato per selezionare tra le possibilità e chiamare quella risposta al processo.

L'intelligenza artificiale come strumentalismo automatizzato: come l'intelligenza artificiale mette in atto un'ideologia di utilità sconsiderata

Negli ultimi mesi ho visto una serie di seri tentativi di legare l'intelligenza artificiale all'ideologia, anche se la maggior parte inizia con una curiosa ambivalenza riguardo ai termini coinvolti. L'ideologia, un tempo l'orgoglioso cavallo di battaglia teorico della sinistra del dopoguerra, è diventata una sorta di spettro errante, occasionalmente invocato, raramente definito, ma il più delle volte scambiato per sinonimo di pregiudizio.

Toward understanding and preventing misalignment generalization

Large language models like ChatGPT don’t just learn facts—they pick up on patterns of behavior. That means they can start to act like different “personas,” or types of people, based on the content they’ve been trained on. Some of those personas are helpful and honest. Others might be careless or misleading. Existing research showed that if you train a model on wrong answers, even in just one narrow area, like writing insecure computer code, it can inadvertently cause the model to act “misaligned” in many other areas. This is called “emergent misalignment.” We studied why this happens.

Writing, Not This Way, But That Way: Writing against AI's Syntactic Simulations of Dialectical Movement

I don’t write to express what I already know. If I did, I’d have nothing to say by the end of the first clause, and the sentence would be left dragging its tail behind it like a dog with nowhere to go. Writing, for me, begins in a state of productive error—less revelation than fumbling, a kind of intellectual squinting in the direction of something not yet visible, let alone nameable. ---- Non scrivo per esprimere ciò che già so. Se lo facessi, non avrei più nulla da dire alla fine della prima frase, e la frase si trascinerebbe dietro come un cane senza un posto dove andare. La scrittura, per me, inizia in uno stato di errore produttivo – più che rivelazione che tentennamento, una sorta di sguardo intellettuale socchiuso verso qualcosa di non ancora visibile, figuriamoci nominabile.

Rilanciare il pensiero incompiuto - Rebranding the unfinished thougtht

Cosa succede a un pensiero incompiuto quando viene espresso dentro un sistema ingegnerizzato per per garantire certezza, prestazioni e leggibilità professionale? Questo testo esplora come pensare in pubblico – particolarmente su piattaforme come Linkedin, richiede una alfabetizzazione costante, ricorsiva, in sintonia non solo con le idee, ma anche con le infrastrutture che le rimodellano.

Escher e il dilemma della mano che ne disegna un'altra, per una riflessione sulla IA

La litografia di Escher di una mano che ne disegna un'altra – che, a sua volta, disegna la prima – offre più di un intelligente paradosso visivo; Mette in scena lo stesso dilemma che ossessiona qualsiasi tentativo di pensare la tecnologia attraverso la teoria, la materialità e il linguaggio. Né la mano è origine né effetto, eppure entrambe sembrano generare l'altra in un gesto che sospende causa e conseguenza, iscrizione e carne, in un ciclo senza fine. Non si tratta semplicemente di un puzzle di rappresentazione, ma di un'allegoria della difficoltà di teorizzare il mondo materiale senza ridurlo al linguaggio o pretendere che il linguaggio possa distinguersi da esso. Siamo sempre già la mano che disegna ed è tirata, situata all'interno del circuito ricorsivo di corpi, codici, concetti e infrastrutture, ognuno dei quali si forma e viene plasmato a sua volta.

AI's just like me - But, like, totally not!

Una cosa che ho iniziato a notare nelle pie chiacchiere che circondano l'IA è la ricorrenza di due impulsi apparentemente distinti – l'identificazione e la differenziazione – che sono abitualmente confusi o messi in contrasto, anche se li ho trovati molto più rivelatori se pensati in tandem, come le difficili fondamenta del nostro tango relazionale co-emergente con la macchina. Mi spiego.

Intelligenza artificiale e panico concettuale

Ogni pochi decenni circa, la filosofia si ritrova brevemente rispolverata e invitata a tornare in buona compagnia – non per affetto, ovviamente, ma perché qualcosa nel sistema è andato storto. L'intelligenza artificiale, a quanto pare, ha scatenato una sorta di panico concettuale: la consapevolezza che le graziose parentesi che circondano conoscenza, significato e soggetto stanno perdendo, e nessuna strategia di innovazione sembra riuscire a fermare il flusso. Gli algoritmi hanno superato i framework, e così i filosofi vengono convocati, come vigili del fuoco a cui viene chiesto di spiegare la struttura molecolare del fumo.

Are we designing AI for control, or for coexistence? The relational ethics of Abeba Birhane

Nei miei sforzi per sviluppare un'etica relazionale per l'IA, il lavoro di Abeba Birhane è stato centrale. Scienziato cognitivo e teorico della decolonizzazione, la scrittura di Birhane si muove fluidamente tra i domini – filosofia della mente, teoria critica della razza, etica dei dati – ma rimane focalizzata su una domanda epistemica fondamentale: quali tipi di conoscenza e quali forme di vita riproducono i sistemi di intelligenza artificiale? E in base a quali presupposti sull'umanità, la cognizione e il controllo?

What if AI isn't just helping us write - but subtly reconditioning how writing becomes legible, recognizable, and valued?

La questione educativa non è semplicemente se sia ancora necessario insegnare a scrivere, dipingere o comporre. Si tratta di come insegnare agli studenti a riconoscere quando il loro processo creativo viene sottilmente ottimizzato verso impostazioni predefinite meccaniche, quando il sistema sta smussando la difficoltà, l'ambiguità o l'invenzione in nome della fluidità.

𝐖𝐡𝐞𝐧 𝐖𝐫𝐢𝐭𝐢𝐧𝐠 𝐒𝐭𝐨𝐩𝐬 𝐓𝐡𝐢𝐧𝐤𝐢𝐧𝐠: Automation, Authorship, and the Ethics of Conceptual Rigor from Mark Twain to AI

This essay examines the growing disconnect between language and thought in contemporary discourse, particularly in the context of EdTech, AI, and academic theory. Beginning with reflections on the author’s recent engagement with theoretical dialogue on LinkedIn—a platform marked by performance-driven visibility rather than conceptual depth—it traces how theoretical vocabulary has increasingly come to function as professional shorthand, signaling intellectual alignment while often bypassing the labor of thinking. Drawing on examples from education discourse and the historical figure of Mark Twain—whose engagement with the typewriter and notions of automatic writing challenged humanist ideas of authorship—the essay situates current anxieties around AI-generated language within a longer tradition of mechanical mediation. Rather than framing authorship as a question of human versus machine, the essay argues for conceptual rigor as the true index of intellectual integrity. It calls for a renewed attention to friction, difficulty, and specificity in writing—not as barriers to communication, but as signs that thought is actively being done.

The cognitive turn: locating the cognitive difference in the age of AI

There’s a certain bleak ingenuity to the idea that our best response to AI’s unsettling fluency is to manually downgrade its pronouns. A recent Boston Globe op-ed recommends that we stop referring to generative systems as coworkers or collaborators, and instead swap the “o” for a zero: c0workers, c0companions. It’s not language that’s the problem here—it’s the use of language to shut down thought just when it’s most needed. Rather than open space for describing what resists classification, this symbolic tweak tries to pin the world back into place with a single keystroke.