Qualcosa sta cominciando ad emergere, in modo incerto, in modo non uniforme, con tutta l'imbarazzo di una struttura che cerca di darsi un nome mentre costruisce le sue fondamenta, all'interno dell'università, dove diversi sistemi – le iniziative di SUNY nell'intelligenza artificiale e nella società, per esempio – stanno costruendo interi dipartimenti dedicati agli studi sull'intelligenza artificiale, e ciò che lo rende diverso dalle precedenti ondate di discorsi sulla tecnologia e l'umanità è il modo in cui questi dipartimenti vengono concepiti a quello che chiamerei un livello post-disciplinare.
il che significa non solo più discipline riunite attorno a un tema, come nel solito approccio multidisciplinare, ma qualcosa di più difficile e disordinato: il riconoscimento che nessuna epistemologia esistente – il senso di nessun campo di ciò che conta come conoscenza o valore o conseguenza – è adeguata di per sé, perché l'IA rimescola le condizioni in cui tali determinazioni vengono effettuate in primo luogo.
l'avvento delle intelligenze artificiali suggerisce l'inadeguatezza di tutte le epistemologie esistenti, che hanno bisogno di essere ripensate
Ogni campo, dalla filosofia all'informatica, dall'educazione all'economia alla teoria dei media, è dotato della propria architettura epistemica – dei propri criteri per ciò che costituisce la comprensione – e la difficoltà è che l'IA destabilizza le coordinate di quell'architettura in modi ontologici ed etici che resistono a un inquadramento stabile, e che nessun singolo metodo, anche nella sua forma espansa o ibrida, può assorbire completamente. Perché, sia che l'oggetto di studio sia la computazione o l'interpretazione, c'è sempre un momento in cui gli strumenti disciplinari cominciano a vacillare e ciò che appare invece è una sorta di residuo metodologico, la cosa che supera i protocolli di verità del campo.
Nel frattempo, il mondo degli affari ha da tempo una propria epistemologia – che equipara la conoscenza con la redditività, l'evidenza con l'adozione quantificabile e il successo con la saturazione del mercato – e questa logica, che sembra efficiente perché ricorsiva, ha la tendenza a far collassare il significato negli indicatori di performance e a ridurre le conseguenze a una sorta di calcolo del rischio in cui ciò che conta non è ciò che accade, ma ciò che potrebbe essere difendibile se lo accadesse.
E così lo sviluppo dell'IA procede secondo una sequenza familiare – prestazioni, poi quantificazione, poi giustificazione, quindi finanziamento o acquisizione – in cui le questioni etiche o sociali appaiono solo una volta che l'apparato è già operativo, arrivando come conformità, branding o preoccupazione in fase avanzata. Questa sequenza non è mai neutra. Codifica la visione del mondo secondo cui l'intelligenza è astrazione, la cognizione è performance, il giudizio è rumore e il valore è tutto ciò che sopravvive all'ottimizzazione.
Questo è esattamente il motivo per cui i dipartimenti post-disciplinari negli studi sull'intelligenza artificiale sono importanti: iniziano a monte. Permettono alle epistemologie di scontrarsi senza silos protettivi, a partire dalla consapevolezza che la dissonanza epistemica e intra-disciplinare produttiva è la condizione in cui potrebbero emergere nuovi linguaggi per l'intelligenza. Questo disordine è una scommessa necessaria: che ripensare l'intelligenza richiede di ripensare le architetture della conoscenza stessa.
English original version
Why We Need Post-Disciplinary AI Studies
Something is beginning to emerge—haltingly, unevenly, with all the awkwardness of a structure trying to name itself while also constructing its foundations—inside the university, where several systems—SUNY's initiatives in AI and Society, for instance—are building entire departments devoted to AI Studies, and what makes this different from prior waves of tech-and-humanity discourse is the way these departments are being conceived at what I would call a post-disciplinary level, which means not just multiple disciplines gathered around a theme, as in the usual multidisciplinary approach, but something harder and messier: the recognition that no existing epistemology—no field’s sense of what counts as knowledge or value or consequence—is adequate on its own, because AI scrambles the conditions under which those determinations get made in the first place.
Each field, from philosophy to computer science to education to economics to media theory, comes equipped with its own epistemic architecture—its own criteria for what constitutes understanding—and the difficulty is that AI destabilizes the coordinates of that architecture in ontological and ethical ways that resist stable framing, and which no single method, even in its expanded or hybrid form, can fully absorb. Because whether the object of study is computation or interpretation, there is always a moment where the disciplinary tools begin to wobble and what appears instead is a kind of methodological remainder—the thing that exceeds the field’s protocols for truth.
Meanwhile, the business world has long had its own epistemology—one that equates knowledge with profitability, and evidence with quantifiable uptake, and success with market saturation—and this logic, which feels efficient because it is recursive, has a tendency to collapse meaning into performance indicators and reduce consequence to a kind of risk calculus where what matters is not what happens but what might be defensible if it does.
And so AI development proceeds according to a familiar sequencing—performance, then quantification, then justification, then funding or acquisition—in which ethical or social questions appear only once the apparatus is already operational, arriving as compliance, branding, or late-stage concern. That sequencing is never neutral. It encodes the worldview that intelligence is abstraction, cognition is performance, judgment is noise, and value is whatever survives optimization.
Which is exactly why post-disciplinary departments in AI Studies matter—they begin upstream. They allow epistemologies to collide without protective silos, starting with the awareness that productive epistemic and intra-disciplinary dissonance is the condition under which new languages for intelligence might emerge. This messiness is a necessary a wager: that rethinking intelligence requires rethinking the architectures of knowledge itself.