Go down

"La filosofia è presente su Linkedin in mille salse, tutte più o meno simili, perchè sempre in fase di preparazione dentro camere dell'eco gestite ad arte dall'algoritmo di turno. Presenti sono anche i filosofi, i consulenti filosofici, i filosofi che fanno i social media manager e i content creator. Poi ci sono i filosofi pop, amati da algoritmi, influencer e moltitudini di seguaci che amano fare citazioni ed esercitarsi in pensieri filosofici senza aver letto un libro di filosofia.

Su Linkedin la filosofia è sempre in azione ma sembra sempre un po' fuori posto. Come si fa a semplificare un pensiero filosofico complesso, ad articolarlo in brevi frasi e altrettanto brevi post? Come si fa a condividere una riflessione critica, profonda, non omologata, alternativa, impegnata? Come si fa a dialogare socraticamente ponendo domande alle quali oggi le IA sono bravissime a rispondere?

La filosofia su Linkedin è immersa nel rumore, c'è da meravigliarsi e da essere contenti di quanti siano i filosofi che ancora osano agire da pensatori che si rifiutano di sparire in tutto questo rumore, ma anche noncuranza, disaffezione, disinteresse. " (Carlo Mazzucchelli)


Il filosofo che frequenta Likedin arriva vestito per un seminario e si ritrova a un brunch di networking. Il design della piattaforma presuppone che le idee debbano comportarsi come biglietti da visita: acuti, portatili e certi del loro scopo. Qualsiasi cosa più esplorativa e coraggiosa sembra essere arrivata per errore. Questo crea una scena particolare, poiché proprio il luogo che chiede a gran voce la "leadership di pensiero" scoraggia silenziosamente l'atto di pensare oltre la sua immaginazione manageriale.

Quando appare la filosofia, deve mettere in scena un atto di sparizione educato. Può segnalare le sue intenzioni senza indugiare, poiché il feed della piattaforma favorisce impressioni rapide piuttosto che indagini approfondite. Questa tensione si è accentuata dopo l'arrivo dell'IA, che ha messo in discussione le ipotesi sull'interpretazione, in modi che la piattaforma non è preparata a assorbire. Le domande sollevate dall'IA su come si forma il significato, come si esercita il giudizio, come il contesto guida la comprensione, non sono in linea con uno strumento pensato per aggiornamenti rapidi. La teoria diventa necessaria perché il nuovo terreno non può essere affrontato solo con consigli procedurali, anche se la piattaforma preferisce non accorgersene.

Le discussioni sull'alfabetizzazione dell'IA qui si spostano verso un genere familiare: il manuale istruttivo ordinato che promette chiarezza, come se il mondo stesse semplicemente aspettando di essere classificato ed elencato. Queste guide rassicurano i lettori che l'ambiguità sia solo un errore amministrativo. L'effetto è quello di riformulare l'alfabetizzazione come coreografia tecnica, compiti da completare piuttosto che concetti da esaminare. L'indagine diventa procedurale, come sostituire la filosofia con un diagramma di flusso per la risoluzione dei problemi.

Questa preferenza ha una conseguenza. Essa estende un sospetto americano di pensiero che si rifiuta di essere valutato a incrementi trimestrali. Douglas Hofstadter ha già fatto questa classifica molto tempo fa. Aggiungi il racconto di Max Weber sull'etica puritana, dove la produttività gode di uno status quasi divino, e l'"utilità" diventa l'istinto culturale. LinkedIn, naturalmente, trasforma quell'istinto in un passatempo algoritmico, premiando contenuti che simulano il controllo tramite punti elenco.

Man mano che queste tendenze convergono, la complessità appare più come un inconveniente che come un resoconto onesto del mondo. L'alfabetizzazione si riduce a un kit di partenza adatto a uno stand per una conferenza. Il nucleo educativo si assottiglia. Ciò che rimane assomiglia all'ottimizzazione del flusso di lavoro indossando occhiali presi in prestito da altri.

Non è una questione accademica pignola. È un problema etico. Gran parte dell'instabilità intorno all'alfabetizzazione dell'IA deriva dall'abitudine di risolvere il disagio prima di esaminarne la causa. Il settore si affretta a creare tecniche che calmano, piuttosto che pratiche che rafforzano il giudizio. La vera alfabetizzazione chiede alle persone di esaminare le proprie ipotesi e rivederle quando le condizioni cambiano, una disciplina lenta dentro una cultura allergica alla lentezza.

L'IA continua a rimodellare il clima epistemologico. Qualsiasi alfabetizzazione degna del termine deve preparare le persone a navigare quel clima, andando oltre le banalità e gli effetti gestuali che le piattaforme desiderano. Forse non diventerà mai virale, ma almeno tratta i lettori come pensatori piuttosto che come clienti in cerca di carta da letteratura motivazionale.


English original text

Philosophy on LinkedIn occupies an odd position...


It arrives dressed for a seminar and finds itself at a networking brunch. The platform’s design assumes ideas should behave like business cards—crisp, portable, and certain of their purpose. Anything more exploratory looks as though it wandered in by mistake. This creates a peculiar scene, since the very place that clamors for “thought leadership” quietly discourages the act of thinking beyond its managerial imagination.

When philosophy appears, it must stage a polite vanishing act. It may signal its intentions without lingering, since the feed favors quick impressions over sustained inquiry. This tension has sharpened in the wake of AI’s arrival, which has unsettled assumptions about interpretation in ways the platform is ill-prepared to absorb. The questions AI raises—how meaning is formed, how judgment is exercised, how context guides understanding—do not align with a channel built for brisk updates. Theory becomes necessary because the new terrain cannot be navigated through procedural advice alone, even if the platform prefers not to notice.

AI Literacy discussions here drift toward a familiar genre: the tidy instructional manual promising clarity, as though the world were simply waiting to be itemized. These guides reassure readers that ambiguity is merely a clerical error. The effect is to recast literacy as technical choreography—tasks to complete rather than concepts to examine. Inquiry turns procedural, like swapping philosophy for a troubleshooting flowchart.

This preference has a lineage. It extends an American suspicion of thinking that refuses to be evaluated in quarterly increments. Douglas Hofstadter charted this long ago. Add Max Weber’s account of the Puritan ethic, where productivity enjoys an almost divine status, and “usefulness” becomes the cultural instinct. LinkedIn, naturally, turns that instinct into an algorithmic pastime, rewarding content that simulates control in bullets.

As these tendencies converge, complexity looks like an inconvenience rather than an honest account of the world. Literacy shrinks into a starter kit suitable for a conference booth. The educational core thins; what remains resembles workflow optimization wearing borrowed spectacles.

This is not academic fussiness. It is an ethical problem. Much of the instability around AI literacy comes from the habit of resolving discomfort before examining its cause. The field rushes to create techniques that soothe rather than practices that strengthen judgment. Real literacy asks people to inspect their assumptions and revise them when conditions shift—a slow discipline in a culture allergic to slowness.

AI keeps reshaping the epistemological climate. Any literacy worthy of the term must prepare people to navigate that weather beyond platitudes and the gestural affects platforms crave. It may never go viral, but it treats readers as thinkers rather than customers hunting for motivational stationery.


Pubblicato il 07 dicembre 2025

Owen Matson, Ph.D.

Owen Matson, Ph.D. / Designing AI-Integrated EdTech Platforms at the Intersection of Teaching, Learning Science, and Systems Thinking