C'è un ritornello popolare che circola:
"Solo i bravi scrittori riescono a far scrivere bene l'IA".
"Solo i bravi pittori riescono a far dipingere bene l'IA".
"Solo i bravi musicisti riescono a far suonare bene l'IA".
Il punto è riaffermare che l'abilità umana è ancora importante. E lo è. Ma direi che la questione più profonda non è se queste abilità siano ancora importanti (lo sono). Riguarda piuttosto il modo in cui le condizioni in cui queste abilità emergono, circolano e diventano leggibili vengono già riorganizzate dai sistemi con cui interagiamo.
L'affermazione che "solo i bravi scrittori riescono a far scrivere bene l'IA" potrebbe sembrare affermativa, ma travisa silenziosamente la dinamica. Tratta l'IA come uno strumento passivo, in attesa di mani esperte, quando in realtà sono i sistemi di IA a dare forma a ciò che conta come buono. Costruiscono la forma, il tono, la struttura e persino l'argomentazione, in modi che rafforzano certe epistemologie oscurandone altre. Quindi sì, l'utente plasma l'output, ma il sistema a sua volta lo addestra.
Ciò che spesso non viene considerato in questa inquadratura è la natura ricorsiva della cognizione negli ambienti mediati dall'IA. Non stiamo solo esprimendo idee, stiamo co-producendo leggibilità con l'interfaccia, il modello, il set di dati. E questo ciclo di feedback influenza non solo gli output che produciamo, ma anche le intuizioni di cui ci fidiamo. Col tempo, l'IA non ci aiuta solo a scrivere, ma ricondiziona anche il modo in cui la scrittura si percepisce, ciò che premia e quali forme di creatività rimangono visibili agli altri.
Quindi la questione educativa non è semplicemente se sia ancora necessario insegnare a scrivere, dipingere o comporre. Si tratta di come insegnare agli studenti a riconoscere quando il loro processo creativo viene sottilmente ottimizzato verso impostazioni predefinite meccaniche, quando il sistema sta smussando la difficoltà, l'ambiguità o l'invenzione in nome della fluidità.
Se non coinvolgiamo questo livello – se non rendiamo gli studenti epistemologicamente consapevoli di come si sviluppano le condizioni della cognizione in ambienti macchinici – rischiamo di ridurre la creatività a un raffinamento rapido e la competenza a un adeguamento stilistico. Questa non è la morte della creatività. Ma è un cambiamento nelle condizioni in cui si crea il significato, si premia la leggibilità e si forma la cognizione.
Questo è il motivo per cui sostengo una forma più profonda di alfabetizzazione all'IA – quella che chiamo "alfabetizzazione epistemica all'IA". La maggior parte dei framework di alfabetizzazione all'IA si concentra su come utilizzare lo strumento: sollecitare responsabilmente, verificare i risultati, evitare pregiudizi. Questi sono importanti, ma da soli non sufficienti.
L'alfabetizzazione epistemica all'IA pone un'altra domanda:
- In che modo il sistema plasma ciò che conta come conoscenza?
- Quali forme di espressione vengono premiate?
- Quali tipi di ambiguità o differenze vengono appiattite?
È il tipo di lavoro che studiosi dell'alfabetizzazione come Rachel Horst stanno articolando, riformulando l'alfabetizzazione non come un elenco di competenze, ma come uno spazio di creazione di significati controversi in ambienti saturi di tecnologia.
Original article - English version
There’s a popular refrain going around:
“Only good writers get AI to write well.”
“Only good painters get AI to paint well.”
“Only good musicians get AI to play well.”
The point is to reaffirm that human skill still matters. And it does. But I’d suggest the deeper issue isn’t about whether those skills still matter (they do). It’s about how the conditions under which those skills emerge, circulate, and become legible are already being reorganized by the systems we’re now interacting with.
The claim that “only good writers get AI to write well” might seem affirming, but it quietly misstates the dynamic. It treats AI as a passive tool, waiting for expert hands—when in fact, AI systems are already shaping what counts as good. They scaffold form, tone, structure, even argument, in ways that reinforce certain epistemologies while obscuring others. So yes, the user shapes the output—but the system is also training the user in return.
What’s often missed in this framing is the recursive nature of cognition in AI-mediated environments. We’re not just expressing ideas—we’re co-producing legibility with the interface, the model, the dataset. And that feedback loop affects not only the outputs we produce, but the intuitions we come to trust. Over time, AI doesn’t just help us write—it reconditions what writing feels like, what it rewards, and what forms of creativity remain visible to others.
So the educational question isn’t simply whether we still need to teach writing, painting, or composing. It’s how we teach students to recognize when their creative process is being subtly optimized toward machinic defaults—when the system is smoothing the edge off difficulty, ambiguity, or invention in the name of fluency.
If we don’t engage that layer—if we don’t make students epistemologically aware of how the conditions of cognition unfold in machinic environments—then we risk reducing creativity to prompt refinement, and expertise to stylistic compliance. That’s not the death of creativity. But it is a shift in the conditions under which meaning is made, legibility is rewarded, and cognition takes form.
This is why I argue for a deeper form of AI literacy—what I call 'epistemic AI literacy.' Most AI literacy frameworks focus on how to use the tool: prompt responsibly, verify outputs, avoid bias. These are important, but insufficient on their own.
Epistemic AI literacy asks something else:
-How is the system shaping what counts as knowledge?
-What forms of expression get rewarded?
-What kinds of ambiguity or difference get flattened out?
It's the kind of work literacy scholars like Rachel Horst are articulating in reframing literacy not as a checklist of competencies, but as a space of contested meaning-making in technologically saturated environments.