Go down

Newton diceva di stare sulle spalle dei giganti. La sua era un'ammissione onesta: nessuna scoperta nasce dal nulla, ogni idea porta con sé il peso invisibile di chi l'ha resa possibile. La scienza, la filosofia, la letteratura funzionano così da sempre. Per accumulo, per trasmissione, per contaminazione tra tradizioni che non si sono mai chieste il permesso di parlarsi. Il sapere è per natura collettivo, relazionale, refrattario alla proprietà.

Quello che Newton non poteva prevedere è che qualcuno avrebbe brevettato le spalle. Eppure è esattamente quello che è successo. Negli ultimi decenni si è costruita un'architettura legale, economica e istituzionale fondata sull'idea che la conoscenza si comporti come qualsiasi altra merce. Che si possa possedere, recintare, vendere. Che chi la controlla abbia il diritto di decidere chi può usarla e a quale prezzo. Questo saggio cerca di capire questa contraddizione e di nominare quello che, nonostante tutto, resiste ancora.


Viviamo in un’epoca in cui la conoscenza è diventata il principale mezzo di produzione, il vettore primario della ricchezza e del potere. Chi controlla il sapere (chi decide cosa si può brevettare, pubblicare, insegnare, condividere) esercita una forma di dominio che non ha precedenti nella storia del capitalismo industriale.

Questa è la posta in gioco del dibattito che si raccoglie attorno al concetto di socialismo della conoscenza: non una nostalgia per il socialismo novecentesco delle nazionalizzazioni e della pianificazione centrale, ma il tentativo di pensare forme nuove di collettivizzazione adeguate all’era cognitiva e digitale.

Il presente saggio intende esplorare questo campo concettuale attraverso quattro prospettive complementari e convergenti. La prima è quella del filosofo dell’educazione Michael A. Peters, che ha elaborato la teoria del socialismo della conoscenza in modo sistematico, in polemica esplicita con il paradigma dominante del capitalismo della conoscenza. La seconda è quella della scienziata politica Elinor Ostrom e della bibliotecaria Charlotte Hess, che hanno fornito il fondamento istituzionale del concetto di knowledge commons (i beni comuni cognitivi) applicando ai beni immateriali il framework sviluppato per risorse naturali condivise. La terza è quella del filosofo e sociologo francese Edgar Morin, che affronta il problema non dal lato dell’economia politica ma da quello dell’epistemologia: come è strutturata la conoscenza? Come la produciamo e la trasmettiamo? La quarta, infine, è quella del giornalista e saggista italiano Luca De Biase, che mostra come il problema dei commons cognitivi sia strutturale all'ecosistema mediale in cui si forma quotidianamente il giudizio democratico: non solo chi possiede il sapere, ma chi controlla le condizioni attraverso cui l'informazione diventa conoscenza condivisa.

La tesi centrale che questo saggio intende sostenere è che il capitalismo cognitivo non è solo politicamente ingiusto (perchè privatizza ciò che appartiene a tutti) ma è anche epistemologicamente falso, perchè contraddice la natura intrinsecamente relazionale, collettiva e interdisciplinare del sapere stesso1. Peters, Ostrom, Morin e De Biase, pur da posizioni e tradizioni disciplinari diverse, convergono su questa intuizione di fondo. Il sapere non è mai stato proprietà di nessuno: è il prodotto accumulato di generazioni, culture, relazioni e scambi. Trattarlo come merce privata equivale a recintare l’aria che respiriamo2.

Dalla fabbrica al sapere: la nascita dell’economia della conoscenza

Per comprendere il socialismo della conoscenza occorre prima capire contro cosa si batte, ovvero il paradigma dell’economia della conoscenza, che a partire dagli anni Novanta del Novecento ha ridisegnato il modo in cui istituzioni, governi e imprese concepiscono il sapere e il suo ruolo nella vita economica.

La svolta avviene in un contesto preciso: la crisi del fordismo, la fine della centralità del lavoro fatturiero nelle economie avanzate, l’affermarsi delle tecnologie dell’informazione e della comunicazione come infrastruttura produttiva dominante. In questo contesto, l’OCSE pubblica nel 1996 il rapporto The Knowledge-Based Economy (OECD, 1996), che sistematizza e legittima istituzionalmente l’idea che la conoscenza (e non più il lavoro fisico o le materie prime) sia diventata il principale fattore di produzione della ricchezza. L’espressione “economia della conoscenza” entra nel vocabolario delle politiche pubbliche di tutto il mondo occidentale con una velocità e una pervasività che raramente si vedono nel campo delle idee economiche.

Due teorie accademiche forniscono il fondamento tecnico a questa svolta. La prima è la teoria del capitale umano di Gary Becker (1964): gli individui investono in istruzione e formazione come investono in qualsiasi altro bene capitale, e il rendimento atteso di questo investimento determina le scelte educative. La seconda è la teoria della crescita endogena di Paul Romer (1990): la conoscenza, diversamente dalle risorse fisiche, non è soggetta a rendimenti decrescenti. Al contrario, genera esternalità positive e può essere accumulata indefinitamente, diventando il motore primario della crescita economica a lungo termine.

Peters osserva, con acutezza critica, che il passaggio linguistico da “economia della conoscenza” a “capitalismo della conoscenza” non è neutro: svela il programma politico nascosto dietro la retorica tecnocratica dell’OCSE. L’economia della conoscenza non è semplicemente una descrizione dello stato di cose: è una prescrizione normativa che orienta le politiche universitarie verso la valorizzazione economica della ricerca, la brevettabilità delle scoperte scientifiche, la competizione internazionale tra sistemi educativi misurata attraverso ranking e indicatori bibliometrici.

C’è però un paradosso fondamentale al cuore di tutto questo sistema, che gli economisti stessi riconoscono ma che il discorso dominante tende a seppellire sotto la retorica dell’innovazione. La conoscenza è un bene non rivale: se io condivido una formula matematica, un’idea, una scoperta scientifica, non perdo nulla, anzi, la conoscenza si moltiplica attraverso la condivisione. È anche un bene difficilmente escludibile: una volta che un’idea è nota, impedire agli altri di usarla richiede un sistema costoso e artificiale di protezione legale. Questa natura radicalmente diversa dalla merce tradizionale è la premessa su cui poggia tutta la critica del capitalismo cognitivo: i meccanismi di mercato standard, pensati per beni rivali ed escludibili, non funzionano correttamente per la conoscenza, e applicarli a forza distorce sia l’economia sia il sapere stesso.

Il capitalismo della conoscenza: anatomia di un regime

Il capitalismo della conoscenza non è un’astrazione: è un insieme preciso di istruzioni, norme, pratiche e incentivi che trasformano il sapere in merce. Vale la pena scomporlo nei suoi elementi costitutivi, perchè solo così è possibile capire la portata della critica che il socialismo della conoscenza gli muove.

Il primo elemento è il sistema della proprietà intellettuale. Brevetti, copyright, marchi registrati e segreti industriali costituiscono l’architettura legale attraverso cui la conoscenza viene privatizzata. L’accordo TRIPS (Trade-Related Aspects of Intellectual Property Rights) siglato nell’ambito del WTO nel 1994 ha globalizzato questo sistema, imponendo ai paesi in via di sviluppo standard di protezione della proprietà intellettuale modellati sugli interessi delle grandi corporations farmaceutiche, tecnologiche e culturali dei paesi ricchi (WTO, 1994). Il risultato è che una scoperta scientifica finanziata con fondi pubblici può diventare proprietà di un’azienda privata, che ne controlla l’accesso e ne fissa il prezzo3.

Il secondo elemento è la trasformazione dell’università. Dall’istituzione medievale come “repubblica delle lettere” (comunità di studiosi dedita alla ricerca disinteressata e alla trasmissione del sapere) si è passati progressivamente al modello della “università imprenditoriale” (Clark, 1998), orientata al trasferimento tecnologico, alla creazione di spin-off, alla ricerca di finanziamenti privati, alla competizione nei ranking internazionali. Questa trasformazione non è avvenuta in modo uniforme né senza resistenze, ma la direzione di marcia è stata ovunque la stessa: la ricerca di base finanziata pubblicamente cede terreno alla ricerca applicata orientata al mercato, la valutazione della qualità accademica si misura con indicatori bibliometrici quantitativi (impact factor, H-index, numero di citazioni), la collaborazione tra ricercatori viene subordinata alla tutela della proprietà intellettuale4.

Il terzo elemento è il sistema editoriale accademico. Le grandi case editrici scientifiche (Elsevier, Springer, Wiley) hanno costruito nel tempo un modello di business straordinariamente redditizio: i ricercatori producono articoli con fondi pubblici, li cedono gratuitamente alle riviste, li revisionano gratuitamente come peer reviewer, e poi le università stesse pagano abbonamenti esorbitanti per accedere a quella stessa conoscenza che i loro ricercatori hanno prodotto. Il margine di profitto di Elsevier supera stabilmente il 30%, numeri che farebbero invidia a qualsiasi industria. Questo sistema è stato definito da molti osservatori come uno dei più riusciti meccanismi di cattura di rendita nella storia del capitalismo5.

Morin, guardando lo stesso fenomeno dal lato epistemologico piuttosto che economico, aggiunge una dimensione ulteriore alla critica. La compartimentazione disciplinare dell’università moderna non è solo una scelta organizzativa: è il riflesso di un paradigma che separa per dominare. Separare le discipline, creare steccati tra le facoltà, premiare l’iper-specializzazione significa produrre esperti incapaci di comprendere la complessità reale dei problemi, che sono sempre multidimensionali, sempre al confine tra discipline diverse. Il capitalismo cognitivo e la frammentazione disciplinare si rinforzano reciprocamente: entrambi producono sapere che non conosce se stesso, che ignora i propri presupposti e le proprie implicazioni etiche e sociali.

De Biase osserva la stessa dinamica nel campo dell’informazione e dei media. Le grandi piattaforme digitali (Google, Meta, X) hanno costruito la loro dominanza su un paradosso analogo a quello del sistema editoriale accademico: raccolgono dati prodotti dagli utenti, li elaborano attraverso algoritmi proprietari, e li rivendono come profilo pubblicitario. La conoscenza estratta dai comportamenti collettivi di miliardi di persone diventa asset privato. E la qualità dell’informazione si degrada non per mancanza di dati, ma per eccesso di informazione non contestualizzata, non gerarchizzata, non orientata al bene comune.

Le radici marxiane: il general intellect e il Frammento sulle macchine

Il fondamento filosofico più profondo del socialismo della conoscenza affonda in un testo che Marx scrisse a metà dell’Ottocento e che rimase per oltre un secolo quasi sconosciuto: il cosidetto Frammento sulle macchine, una sezione del Grundrisse (le note preparatorie al Capitale redatte tra il 1857 e il 1858) che contiene un’intuizione straordinariamente profetica sul futuro del capitalismo (Marx, 1857-1858/1997).

Marx parte da una constatazione: con lo sviluppo del macchinismo industriale, la ricchezza prodotta dipende sempre meno dal tempo di lavoro individuale direttamente impiegato nella produzione e sempre più dalla potenza generale della scienza e dal progresso tecnologico. Il lavoratore davanti alla macchina automatica non è più la fonte del valore aggiunto: è piuttosto un supervisore, un regolatore di un processo che è mosso dalla conoscenza oggettivata nel macchinario. Marx usa per questo fenomeno l’espressione suggestiva di general intellect: l’intelletto generale, il sapere collettivo accumulato dall’umanità nel corso della sua storia, incorporato nelle macchine, nei processi produttivi, nelle istituzioni sociali.

L’intuizione è duplice e rivoluzionaria. Da un lato, il general intellect è per sua natura collettivo: nessun individuo, nessuna azienda, nessuna nazione lo ha prodotto da solo. È il sedimento di millenni di scoperte, errori, intuizioni, trasmissioni culturali, scambi tra civiltà diverse. Dall’altro lato, il capitalismo tende a privatizzare questo patrimonio collettivo (a incorporarlo nelle macchine, nei brevetti, nei segreti industriali, nella formazione esclusiva delle élite) trasformando ciò che appartiene a tutti in fonte di profitto per pochi.

Questo testo è rimasto a lungo marginale nella tradizione marxista, oscurato dalla teoria del valore-lavoro sviluppata nel Capitale. Ma a partire dagli anni Ottanta e Novanta del Novecento, i pensatori del postoperaismo italiano (in particolare Paolo Virno, Antonio Negri e Michael Hardt) lo hanno riscoperto e riletto come la chiave per comprendere il capitalismo cognitivo contemporaneo. Virno (2001) in particolare sostiene che Marx aveva anticipato con un secolo e mezzo di anticipo la condizione del lavoratore cognitivo post-fordista. Quello che oggi chiamiamo knowledge worker (il programmatore, il ricercatore, il designer, il giornalista) è esattamente il soggetto che Marx immaginava: qualcuno il cui valore produttivo risiede nell’intelletto generale che mobilita, non nel tempo di lavoro fisico che spende.

Peters incorpora questa tradizione nella propria teoria e la porta a una conclusione politica precisa: se il general intellect è la vera fonte della ricchezza nell’economia cognitiva, e se il general intellect è per natura collettivo, allora il tentativo del capitalismo di privatizzarlo è strutturalmente illegittimo. Non solo ingiusto, ma contraddittorio con le condizioni stesse della sua produzione. È come se qualcuno cercasse di brevettare il linguaggio, o di mettere un copyright sulla logica matematica. Il socialismo della conoscenza è, in questo senso, la risposta politica alla contraddizione fondamentale del capitalismo cognitivo6.

Il ponte con Morin qui è particolarmente suggestivo. Il general intellect marxiano e il pensiero complesso moriniano condividono un’intuizione di fondo: la conoscenza è sempre tessuta insieme, sempre relazionale, sempre dipendente da connessioni che attraversano i confini disciplinari, culturali e temporali. Newton diceva di stare sulle spalle dei giganti: ogni scoperta scientifica è possibile solo perchè si appoggia su un’immensa eredità collettiva. Separare, privatizzare, compartimentare significa tagliare i fili di questa rete, e indebolire, alla lunga, la conoscenza stessa.

I commons cognitivi: da Ostrom ai knowledge commons digitali

Se Marx fornisce il fondamento critico e la diagnosi del capitalismo cognitivo, la tradizione dei commons offre gli strumenti istituzionali per pensare l’alternativa. E il punto di partenza obbligato è il lavoro di Elinor Ostrom, la scienziata politica americana che nel 2009 è diventata la prima donna a ricevere il Premio Nobel per l’Economia per aver dimostrato empiricamente che i beni comuni non sono condannati alla “tragedia” che Garrett Hardin aveva profetizzato nel celebre articolo del 1968.

Hardin (1968) aveva sostenuto, con un argomento che avrebbe avuto enorme influenza sul pensiero neoliberale, che i beni comuni (i pascoli condivisi, i mari, le foreste) sono inevitabilmente destinati al sovrasfruttamento e alla distruzione, perchè ogni individuo ha un incentivo a prelevare il massimo possibile sapendo che la risorsa è accessibile a tutti. La soluzione, secondo Hardin, è la privatizzazione o la regolazione statale. Ostrom (1990) ha dimostrato, attraverso decenni di ricerca empirica su casi concreti in tutto il mondo, che questa conclusione è sbagliata: le comunità umane sviluppano spontaneamente istituzioni sofisticate per la gestione collettiva dei beni comuni, istituzioni che funzionano spesso meglio sia del mercato sia dello Stato7.

Il salto teorico compiuto da Ostrom e Charlotte Hess è stato applicare questo framework ai beni immateriali, alla conoscenza, all’informazione, alla cultura digitale (Hess & Ostrom, 2007). I knowledge commons presentano caratteristiche ancora più favorevoli alla gestione collettiva rispetto ai beni naturali: la conoscenza è non-rivale (il mio uso non diminuisce la disponibilità per gli altri) e tendenzialmente non-escludibile (è difficile impedire a qualcuno di usare un’idea che già conosce). Queste caratteristiche fanno della conoscenza un candidato naturale al commons, molto più delle foreste o dei pascoli.

Il paradosso storico che Hess e Ostrom mettono in luce è che proprio nell’era digitale (quando la tecnologia avrebbe potuto rendere il sapere universalmente accessibile a costo quasi zero) si è assistito a un’espansione senza precedenti dei meccanismi di enclosure cognitiva. Le leggi sul copyright si sono estese, i brevetti si sono moltiplicati, i paywall accademici si sono rafforzati, i dati personali sono stati catturati da piattaforme proprietarie. È come se, nel momento in cui le enclosures fisiche delle terre comuni erano finalmente superate, una nuova ondata di recinzione si abbattesse sullo spazio immateriale del sapere.

I modelli concreti di knowledge commons digitali sono già tra noi e mostrano che l’alternativa è praticabile. Wikipedia è l’esempio più noto: una enciclopedia scritta e revisionata gratuitamente da milioni di persone in centinaia di lingue, governata da una comunità con regole esplicite e trasparenti, finanziata da donazioni volontarie. Il software libero e open source (da Linux a Firefox ad Apache) ha dimostrato che la collaborazione peer-to-peer può produrre infrastrutture tecnologiche di qualità superiore a quelle sviluppate da corporations con miliardi di dollari di investimento (Raymond, 1999). Il movimento open access nelle pubblicazioni scientifiche (dalle riviste ad accesso aperto ai preprint server come arXiv) sta lentamente erodendo il monopolio degli editori accademici (Ginsparg, 2011).

Peters usa questo patrimonio istituzionale come infrastruttura empirica della propria proposta politica più radicale. La differenza tra la posizione di Ostrom e quella di Peters è significativa: Ostrom è una teorica liberale, preoccupata di mostrare che i commons funzionano anche all’interno di un sistema di mercato, senza necessariamente metterlo in discussione nella sua totalità. Peters radicalizza questa posizione in chiave post-marxista: i commons cognitivi non sono solo un’alternativa efficiente al mercato in certi settori, ma l’embrione di una forma di organizzazione sociale alternativa al capitalismo cognitivo nella sua interezza. La differenza è di grado e di ambizione politica, ma la base istituzionale è condivisa.

Michael Peters e la costruzione teorica del socialismo della conoscenza

È tempo di entrare nel cuore della proposta teorica di Peters, che rappresenta il tentativo più sistematico di costruire un’alternativa al capitalismo cognitivo all’altezza della sua complessità. La proposta si articola attorno a tre concetti fondamentali, che Peters ha sviluppato nel corso di vent’anni di lavoro teorico: la peer production, la collegialità e l’intelligenza collettiva (Peters, 2019; Peters, 2020).

La peer production (la produzione tra pari) è il concetto elaborato dal giurista Yochai Benkler (2006) per descrivere le forme di collaborazione orizzontale che Internet ha reso possibili su scala globale. Wikipedia, il software open source, i database scientifici condivisi sono tutti esempi di peer production: la conoscenza viene prodotta da comunità di pari che collaborano senza gerarchie imposta dall’alto né incentivi monetari diretti. Benkler sostiene che questo modo di produrre conoscenza è emerso come un terzo modello (alternativo sia alla produzione di mercato sia alla produzione statale) e che in molti settori si dimostra superiore ad entrambi per qualità, velocità e distribuzione dei benefici.

La collegialità è la tradizione accademica della revisione tra pari, della discussione aperta, della condivisione gratuita dei risultati della ricerca. Peters la valorizza non come semplice abitudine professionale ma come modello di socialità alternativo alla competizione individualista imposta dalla logica del mercato accademico. La revisione tra pari (per quanto imperfetta e soggetta a bias) incarna un principio fondamentale: la verità si costruisce collettivamente, attraverso il confronto critico tra pari, non attraverso la gerarchia dell’autorità o la selezione del mercato.

L’intelligenza collettiva è la capacità dei sistemi sociali complessi di produrre conoscenza e prendere decisioni che superano la capacità di qualsiasi individuo singolo. Il termine, reso popolare da Pierre Lévy (1994), descrive un fenomeno che va ben oltre la semplice somma delle intelligenze individuali: nelle reti di collaborazione (scientifiche, culturali, tecnologiche) emergono proprietà e soluzioni che nessun partecipante singolo avrebbe potuto produrre da solo. Peters vede nell’intelligenza collettiva non solo un fenomeno empiricamente osservabile, ma un argomento filosofico a favore della natura sociale e collettiva della conoscenza.

La tesi più provocatoria di Peters merita di essere enunciata con chiarezza: il capitalismo della conoscenza è parassita del socialismo della conoscenza. Questo significa che le forme di valorizzazione economica del sapere che il capitalismo cognitivo mette in atto (brevetti su scoperte scientifiche, software proprietario costruito sulle librerie open source, piattaforme digitali che monetizzano contenuti prodotti dagli utenti) sono possibili solo perchè si appoggiano su una base di conoscenza collettiva che non hanno prodotto. Google non esisterebbe senza le miliardi di pagine web scritte gratuitamente da individui e istituzioni di tutto il mondo. ChatGPT non esisterebbe senza la letteratura, la scienza, la filosofia prodotta dall’umanità nel corso di millenni. Il capitalismo cognitivo non crea il sapere: lo cattura8.

Il fondamento filosofico di questa tesi è costruito su Wittgenstein e Bourdieu. Da Wittgenstein Peters recupera l’argomento contro il linguaggio privato: non può esistere un linguaggio che solo una persona comprende, perchè il significato è intrinsecamente pubblico e sociale9. Estendere questo argomento alla conoscenza in generale significa sostenere che non può esistere conoscenza puramente privata: ogni concetto, ogni categoria, ogni metodo cognitivo che usiamo è stato prodotto in un contesto sociale e dipende da quel contesto per il suo senso. Da Bourdieu Peters recupera l’idea di campo accademico come spazio di relazioni sociali: la conoscenza scientifica non emerge dall’isolamento del genio individuale, ma dalla struttura delle relazioni tra ricercatori, istituzioni, tradizioni disciplinari.

Edgar Morin: il pensiero complesso come fondamento epistemologico

Edgar Morin entra in questo dibattito da un angolo radicalmente diverso, ma la sua voce è necessaria per completare il quadro. Morin non si chiede chi possiede il sapere, né come si gestisce un commons cognitivo: si chiede come è fatto il sapere, come funziona la conoscenza umana, e quali siano le sue condizioni di possibilità. La risposta che elabora nel corso di cinquant'anni di lavoro (sintetizzata nella grande opera in sei volumi La Méthode e nei più divulgativi La testa ben fatta e I sette saperi necessari all’educazione del futuro) è quella del pensiero complesso (Morin, 1977–2004; Morin 1999; Morin, 2000).

Il punto di partenza di Morin è una diagnosi del fallimento del pensiero semplificante che domina la cultura occidentale moderna. L’eredità cartesiana ha imposto all’organizzazione del sapere un principio di separazione: dividere per comprendere, isolare gli oggetti di studio dall’ambiente che li circonda, specializzarsi sempre di più in domini sempre più ristretti. Questo approccio ha prodotto risultati straordinari nel campo della scienza e della tecnologia, nessuno può negarlo. Ma ha anche generato una cecità strutturale di fronte alla complessità del reale: i problemi più urgenti dell’umanità contemporanea (il cambiamento climatico, le pandemie, le disuguaglianze globali, i rischi dell’intelligenza artificiale) sono per definizione problemi che attraversano i confini disciplinari e che nessuna specialità isolata è in grado di comprendere e affrontare da sola.

La proposta di Morin è quella di un pensiero complesso, che non significa pensiero complicato o confuso, ma pensiero capace di tenere insieme ciò che il pensiero semplificante separa: la parte e il tutto, l’ordine e il disordine, il locale e il globale, la certezza e l’incertezza. Morin elabora a questo scopo una serie di principi epistemologici: il principio sistemico, per cui il tutto è più della somma delle parti; il principio ologrammatico, per cui ogni parte contiene informazione sull’intero; il principio dialogico, per cui opposti che si escludono sono anche opposti che si completano.

Le implicazioni pedagogiche di questa epistemologia sono dirompenti. Morin sostiene che l’università moderna (strutturata in facoltà, dipartimenti e corsi monodisciplinari) è organizzata in modo contrario alle esigenze di un pensiero adeguato alla complessità. Produce menti “ben piene”, cariche di nozioni specialistiche, invece che menti “ben fatte”, capaci di connettere, contestualizzare, problematizzare. La distinzione, che Morin prende in prestito da Montaigne (Montaigne, 1580/2012), è più radicale di quanto sembri: una testa ben piena sa molte cose in isolamento; una testa ben fatta sa usare quello che sa per comprendere situazioni nuove, per riconoscere i propri limiti, per collaborare con chi ha competenze diverse.

Il collegamento con il socialismo della conoscenza è, a questo punto, strutturale e non accidentale. Se la conoscenza è per sua natura interdisciplinare, relazionale e collettiva (come Morin sostiene con argomenti epistemologici) allora la sua privatizzazione e compartimentazione è doppiamente sbagliata: ingiusta politicamente, perchè sottrae alla collettività ciò che la collettività ha prodotto; e falsa epistemologicamente, perchè nega la natura stessa del sapere. Morin non usa il linguaggio del socialismo della conoscenza, e la sua tradizione intellettuale è lontana da quella post-marxista di Peters. Ma la convergenza delle conclusioni è profonda e significativa: entrambi sostengono che la conoscenza non può essere trattata come proprietà privata o come somma di frammenti isolati senza che qualcosa di essenziale vada perduto.

Luca De Biase: economia della conoscenza, ecologia dei media e cooperazione

Luca De Biase rappresenta in questo panorama una voce peculiare e preziosa: quella del giornalista e saggista che porta queste questioni teoriche fuori dall’accademia e le confronta con la realtà concreta dell’ecosistema mediale digitale, dell’informazione quotidiana, delle politiche tecnologiche. La sua prospettiva è quella di chi ha seguito dall’interno la trasformazione digitale del sistema dell’informazione, con tutte le sue promesse e le sue distorsioni.

Il contributo specifico di De Biase al dibattito sui commons cognitivi parte da una constatazione empirica: la moltiplicazione dell’informazione disponibile non produce automaticamente migliore conoscenza. Anzi, spesso produce il contrario: più dati non significano più conoscenza, così come più parole non significano più comprensione. La conoscenza richiede contestualizzazione, gerarchizzazione, confronto critico, elaborazione collettiva: tutte operazioni che le piattaforme digitali orientate alla massimizzazione dell’engagement tendono a cortocircuitare piuttosto che a favorire.

Da questa constatazione De Biase trae una conclusione che risuona fortemente con le tesi di Peters e Morin: ciò che manca nell’ecosistema informativo contemporaneo non è la quantità di dati, ma la qualità della cooperazione per trasformarli in conoscenza (De Biase, 2018). Emergono come essenziali piattaforme nelle quali le teorie e gli algoritmi siano espliciti, che funzionino seguendo una logica cooperativa per la creazione e la condivisione della conoscenza, per l’affinamento del metodo con il quale si tratta l’informazione, per la massimizzazione del bene comune. L’antidoto alla proliferazione del rumore informativo non è la censura né la regolazione autoritaria: è la costruzione di infrastrutture cooperative per la produzione e la valutazione collettiva della conoscenza.

Sul tema dei dati come commons, De Biase sviluppa una posizione che merita attenzione particolare. I dati personali (quelli che le grandi piattaforme raccolgono in quantità immense) non sono semplicemente informazioni individuali che ogni persona cede in cambio di servizi gratuiti. Sono intrinsecamente relazionali: riguardano non solo l’individuo ma le sue relazioni, i suoi comportamenti sociali, le sue interazioni con gli altri. In questo senso, sono per natura un bene collettivo, e trattarli come proprietà privata delle piattaforme che li raccolgono è una distorsione analoga a quella che trasforma il sapere scientifico in brevetto privato.

Il contributo originale di De Biase è di mostrare che la battaglia per i commons cognitivi non si gioca solo nelle aule universitarie e nei tribunali della proprietà intellettuale, ma ogni giorno nell’ecosistema mediale in cui tutti viviamo. Il modo in cui gli algoritmi di raccomandazione selezionano le informazioni che riceviamo, il modo in cui le piattaforme incentivano certi tipi di contenuto rispetto ad altri, il modo in cui i dati vengono raccolti e utilizzati senza trasparenza né consenso informato, sono tutte questioni che riguardano la distribuzione del potere cognitivo nella società, e che richiedono risposte politiche e istituzionali all’altezza della loro complessità.

Il digitale come terreno di scontro

Internet ha rappresentato, al suo emergere, una promessa straordinaria per i fautori dei commons cognitivi: per la prima volta nella storia, era possibile distribuire qualsiasi contenuto informativo a qualsiasi persona nel mondo a costo quasi zero. La stampa di Gutenberg aveva democratizzato la produzione del testo scritto; Internet sembrava destinata a democratizzare la distribuzione della conoscenza in modo ancora più radicale. I pionieri del cyberspazio degli anni Novanta (da Stewart Brand e John Perry Barlow, dagli hacker del MIT ai fondatori di Wikipedia) condividevano una visione comune: la rete come spazio di libertà, condivisione e intelligenza collettiva.

Quella promessa non è stata mantenuta; o meglio, è stata mantenuta in modo parziale e contradditorio. Da un lato, i commons digitali sono diventati realtà: Wikipedia è disponibile in oltre trecentocinquanta lingue, i codici sorgenti di Linux e di migliaia di altri programmi open source sono liberamente scaricabili, i preprint scientifici di arXiv raggiungono ricercatori in tutto il mondo prima ancora che gli articoli vengano pubblicati sulle riviste. Dall’altro lato, le stesse tecnologie che hanno reso possibile questi commons hanno anche consentito forme di enclosure cognitiva senza precedenti.

La dinamica di appropriazione e ri-appropriazione descritta come caratteristica permanente della relazione tra capitalismo della conoscenza e socialismo della conoscenza (Peters et al., 2020) si manifesta qui in modo particolarmente netto. Il capitalismo è storicamente abile nell’assorbire le istanze dei movimenti dei commons: l’etica hacker dell’open source è stata commercializzata dalla Silicon Valley; la gratuità di Wikipedia è stata usata come modello per convincere utenti a produrre contenuti gratuiti per piattaforme che li monetizzano; la promessa della condivisione digitale è diventata il cavallo di Troia con cui i dati personali di miliardi di persone sono stati catturati e valorizzati senza compenso.

Il caso Sci-Hub merita menzione specifica come esempio limite di questa tensione. Fondata nel 2011 dalla studentessa di dottorato kazaka Alexandra Elbakyan, Sci-Hub è un sito che rende liberamente accessibili decine di milioni di articoli scientifici normalmente nascosti dietro paywall. È tecnicamente illegale (è stata condannata da tribunali americani ed europei su richiesta degli editori accademici) ma è ampiamente utilizzata da ricercatori di tutto il mondo, compresi quelli delle università più ricche, per aggirare i costi assurdi degli abbonamenti accademici (Himmelstein et al., 2018). Sci-Hub rappresenta la radicalizzazione informale del principio del knowledge commons: una risposta dal basso all’enclosure cognitiva, che esiste perchè le istituzioni formali (università, biblioteche, enti di finanziamento della ricerca) non sono riuscite a costruire alternative sufficientemente efficaci.

Intelligenza artificiale: nuovo commons o nuova enclosure?

Nessuna questione rende più urgente il dibattito sul socialismo della conoscenza quanto l’ascesa dell’intelligenza artificiale generativa. I grandi modelli linguistici (GPT, Claude, Llama e i loro successori) sono stati addestrati su quantità immense di testo prodotto dall’umanità nel corso dei secoli: letteratura, filosofia, scienza, giornalismo, codice informatico, conversazioni quotidiane. In questo senso, sono letteralmente la materializzazione del general intellect marxiano: il sapere collettivo dell’umanità oggettivato in un sistema artificiale. La domanda che si pone con urgenza crescente è: a chi appartiene questo sistema?

La risposta attuale è inequivoca: appartiene a un piccolo numero di corporations private (OpenAI, Microsoft, Google DeepMind, Anthropic, Meta) che hanno investito miliardi di dollari nell’addestramento di questi modelli e ne controllano l’accesso attraverso API commerciali. Il paradosso è evidente: la conoscenza prodotta collettivamente dall’umanità, senza compenso per i suoi produttori originali, viene catturata, elaborata e rivenduta come servizio commerciale da aziende private. È la più grande operazione di enclosure cognitiva della storia.

Peters ha affrontato esplicitamente questa questione negli ultimi anni, elaborando il concetto di AI Knowledge Socialism come estensione naturale della propria teoria (cfr. Peters, 2019; Peters et al., 2020). La proposta si articola su più livelli: i modelli di intelligenza artificiale dovrebbero essere sviluppati come open source, resi accessibili a tutti senza barriere di prezzo; i dati di addestramento dovrebbero essere trattati come commons, con meccanismi di compensazione per i produttori originali; la governance degli algoritmi dovrebbe essere democratica e trasparente, non affidata a consigli di amministrazione orientati al profitto10.

De Biase, su questo tema, individua un punto di vulnerabilità specificamente europeo che merita attenzione. Il regolamento europeo sulla protezione dei dati personali (GDPR; European Parliament & Council of the European Union, 2016) ha riconosciuto ai cittadini europei il diritto di accedere ai propri dati personali e di scaricarli dalle piattaforme che li detengono. È un diritto sostanzialmente ignorato: quasi nessuno lo esercita, e le piattaforme fanno poco per renderlo facile. Eppure, se esercitato collettivamente, questo diritto potrebbe essere il punto di partenza per costruire commons di dati sotto controllo democratico (De Biase, 2025). Un’alternativa alla concentrazione di potere cognitivo nelle mani di poche corporations.

Morin, dal canto suo, offre una prospettiva epistemologica sul rischio specifico che l’intelligenza artificiale pone al pensiero complesso. I sistemi di machine learning tendono per loro natura a rafforzare i pattern esistenti nei dati di addestramento, a ottimizzare per obiettivi misurabili, a produrre risposte fluide e plausibili anche quando sono superficiali o errate. Sono, in un certo senso, la realizzazione tecnica del pensiero semplificante che Morin critica: sistemi che sanno molte cose in modo isolato, ma che faticano a cogliere le connessioni, a gestire l’incertezza, a riconoscere i propri limiti. Il rischio non è la rivolta delle macchine, ma la colonizzazione del pensiero umano da parte di strumenti cognitivi che premiano la rapidità sulla profondità e la fluidità sulla precisione.

Critiche, limiti e tensioni irrisolte

Sarebbe intellettualmente disonesto presentare il socialismo della conoscenza come un programma teorico privo di problemi e contraddizioni. Il dibattito interno a questo campo è vivace e alcune delle critiche mosse sono sostanziali.

La più articolata viene da Steve Fuller, filosofo della scienza che ha contribuito direttamente al volume collettivo curato da Peters (Peters et al., 2020). Fuller sostiene che il socialismo della conoscenza dovrebbe liberarsi dalla propria eredità marxista e cercare ispiratori più adeguati nella tradizione del socialismo utopico, in particolare in Saint-Simon e Proudhon. L’argomentazione di Fuller è che Marx aveva in mente la trasformazione delle condizioni materiali di produzione, e che il suo schema concettuale si adatta male alla specificità del sapere come bene comune. Saint-Simon, con la sua visione di una società guidata da esperti e tecnici al servizio del bene comune, e Proudhon, con la sua critica della proprietà come furto applicata anche alla proprietà intellettuale, offrirebbero strumenti concettuali più appropriati.

Una seconda critica, formulata da Tim Luke, riguarda i rischi di romanticizzare la peer production. Chi decide cosa viene prodotto in un sistema di produzione tra pari? Chi esclude, chi include, chi determina gli standard di qualità? Wikipedia, il modello di riferimento per eccellenza della peer production, è notoriamente sbilanciata verso certi tipi di conoscenza (quella prodotta in lingue europee, da autori maschi, su argomenti riconosciuti come degni di enciclopedia) e non altri11. Il problema della qualità e dell’autorevolezza in assenza di gerarchie esplicite non è banale: le gerarchie tendono a riemergere in forma implicita, spesso meno trasparente e democratica di quelle esplicite.

C’è poi una critica postcoloniale che merita seria considerazione. Il socialismo della conoscenza, nella sua formulazione prevalente, rischia di universalizzare un modello di conoscenza (quello scientifico occidentale, fondato su certi criteri di validità, certe pratiche istituzionali, certi canoni disciplinari) presentandolo come l’unico legittimo. I knowledge commons digitali globali rischiano di essere, nella pratica, spazi in cui la conoscenza delle élite accademiche del Nord globale circola libera (Mignolo, 2011; Couldry & Mejías, 2019), mentre i saperi tradizionali, locali, non scritti, non formalizzati delle comunità del Sud globale rimangono invisibili o vengono appropriati senza compenso.

Morin, dal lato opposto, pone una tensione interna alla propria proposta che vale la pena di riconoscere. La critica all’iperspecializzazione disciplinare rischia di scivolare nell’apologia del dilettantismo: il pensiero complesso richiede, in realtà, competenze profonde e specifiche, che non le si può sostituire con una generica sensibilità interdisciplinare. L’interdisciplinarietà autentica non è ignoranza delle discipline: è il dialogo tra competenze profonde, che può avvenire solo se quelle competenze esistono. Il rischio di formare studenti superficialmente consapevoli di tutto ma profondamente compenti in nulla è reale, e Morin stesso lo riconosce.

Infine c’è la tensione pratica tra apertura e sostenibilità. Chi produce conoscenza (ricercatori, giornalisti, scrittori, programmatori) ha bisogno di essere remunerato per il proprio lavoro. I modelli di commons cognitivi funzionano spesso grazie a un mix di lavoro volontario, finanziamento pubblico e donazioni private che non è replicabile su larga scala senza soluzioni istituzionali innovative. Wikipedia esiste grazie a decine di migliaia di volontari non remunerati; il software open source esiste in parte perchè le corporations stesse trovano conveniente contribuirvi. Questi modelli sono preziosi ma fragili, e la loro generalizzazione richiederebbe trasformazioni istituzionali di portata molto maggiore di quanto i sostenitori dei commons ammettano spesso.

Conclusione

Al termine di questo percorso, è possibile raccogliere i fili delle quattro prospettive esaminate e misurare la portata complessiva del progetto intellettuale che chiamiamo socialismo della conoscenza.

Peters ha dimostrato che il capitalismo cognitivo non è la forma naturale e inevitabile dell’economia della conoscenza, ma una scelta politica (una tra le possibili) che favorisce sistematicamente l’appropriazione privata di ciò che è stato prodotto collettivamente. Ostrom e Hess hanno mostrato che le alternative istituzionali esistono e funzionano: i commons cognitivi non sono utopie, ma realtà già presenti nell’ecosistema digitale globale, che aspettano di essere estese e consolidate. Morin ha fornito la critica più profonda, quella che scende al livello epistemologico: il capitalismo cognitivo è falso non solo politicamente ma anche come teoria del sapere, perchè nega la natura relazionale, interdisciplinare e collettiva della conoscenza umana. De Biase ha ancorato tutto questo alle questioni concrete della vita quotidiana nell’era digitale: chi controlla gli algoritmi, chi possiede i dati, chi determina la qualità dell’informazione che circola nelle reti in cui viviamo.

La convergenza di queste quattro prospettive non è casuale. Riflette una verità fondamentale che la modernità ha faticato a riconoscere: la conoscenza non è mai stata un affare privato. È il prodotto accumulato di millenni di collaborazione umana, trasmesso attraverso le generazioni, arricchito da ogni cultura e tradizione, reso possibile dal linguaggio e dalle istituzioni sociali che nessun individuo ha creato da solo. Trattarla come merce privata significa non solo compiere un’ingiustizia, ma fraintendere radicalmente ciò che essa è.

Questo non significa che tutti i modelli di gestione della conoscenza si equivalgano, né che le tensioni e le contraddizioni evidenziate nella sezione critica siano irrilevanti. Il socialismo della conoscenza non ha una risposta pronta a tutti i problemi che solleva: come remunerare i produttori di conoscenza in un sistema orientato alla condivisione, come garantire la qualità senza riprodurre gerarchie escludenti, come evitare che i commons digitali diventino spazi di dominanza culturale del Nord globale. Queste sono domande aperte, e l’onestà intellettuale impone di riconoscerlo.

Ma il merito principale di questo progetto teorico non è offrire soluzioni pronte: è spostare il terreno del dibattito. Di fronte alla questione “come rendiamo efficiente la produzione di conoscenza?”, il socialismo della conoscenza pone una domanda più radicale: “Efficiente per chi, e a vantaggio di chi?”. Di fronte alla retorica dell’innovazione tecnologica come forza autonoma e benefica, chiede: “Chi controlla la tecnologia, e chi ne paga i costi?”. Di fronte alla naturalizzazione del capitalismo cognitivo come unica forma possibile dell’economia della conoscenza, indica le alternative già esistenti e chiede perchè non vengano estese.

Nell’era in cui l’intelligenza artificiale ridefinisce le frontiere di ciò che le macchine possono fare con il sapere umano, queste domande diventano ancora più urgenti. Il general intellect marxiano (il sapere collettivo dell’umanità) sta per essere incorporato in sistemi automatici di una potenza senza precedenti. La scelta di come governare questo processo (se come enclosure definitiva del commons cognitivo o come estensione e democratizzazione) è probabilmente la più importante decisione politica che l’umanità si trova a prendere in questo inizio di secolo, ed è esattamente questo il terreno su cui il socialismo della conoscenza si gioca la propria rilevanza.


Bibliografia

Becker, G. S. (1964). Human capital: A theoretical and empirical analysis, with special reference to education. National Bureau of Economic Research.

Benkler, Y. (2006). The wealth of networks: How social production transforms markets and freedom. Yale University Press.

Clark, B. R. (1998). Creating entrepreneurial universities: Organizational pathways of transformation. IAU Press & Pergamon.

Couldry, N., & Mejías, U. A. (2019). The costs of connection: How data is colonizing human life and appropriating it for capitalism. Stanford University Press.

De Biase, L. (2018). La conoscenza della cooperazione. La quantità di informazione non basta. blog.debiase.com. https://blog.debiase.com/2018/03/19/la-conoscenza-della-cooperazione-la-quantita-informazione-non-basta/

De Biase, L. (2025). Pensare bene. Un'ecologia dei media per il XXI secolo. Treccani.

European Parliament & Council of the European Union. (2016, 27 aprile; applicazione dal 25 maggio 2018). Regulation (EU) 2016/679 of the European Parliament and of the Council on the protection of natural persons with regard to the processing of personal data and on the free movement of such data (General Data Protection Regulation). Official Journal of the European Union, L 119, 1–88. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32016R0679

Ginsparg, P. (2011). ArXiv at 20. Nature, 476(7359), 145–147. https://doi.org/10.1038/476145a

Hardin, G. (1968). The tragedy of the commons. Science, 162(3859), 1243–1248. https://doi.org/10.1126/science.162.3859.1243

Hess, C., & Ostrom, E. (Eds.). (2007). Understanding knowledge as a commons: From theory to practice. MIT Press.

Himmelstein, D. S., Romero, A. R., Levernier, J. G., Munro, T. A., McLaughlin, S. R., Greshake Tzovaras, B., & Greene, C. S. (2018). Sci-Hub provides access to nearly all scholarly literature. eLife, 7, e32822. https://doi.org/10.7554/eLife.32822

Larivière, V., Haustein, S., & Mongeon, P. (2015). The oligopoly of academic publishers in the digital era. PLOS ONE, 10(6), e0127502. https://doi.org/10.1371/journal.pone.0127502

Lévy, P. (1994). L'intelligence collective: Pour une anthropologie du cyberspace. La Découverte.

Marx, K. (1968–1970). Lineamenti fondamentali della critica dell'economia politica (E. Grillo, trad., 2 voll.). La Nuova Italia. (Opera originale composta 1857–1858)

Mignolo, W. D. (2011). The darker side of western modernity: Global futures, decolonial options. Duke University Press.

Montaigne, M. de. (2012). Saggi (F. Garavini, trad.). Bompiani. (Opera originale pubblicata 1580)

Morin, E. (1977–2004). La méthode (6 voll.). Seuil.

Morin, E. (1999). La testa ben fatta: Riforma dell'insegnamento e riforma del pensiero (S. Lazzari, trad.). Raffaello Cortina. (Opera originale pubblicata 1999)

Morin, E. (2000). I sette saperi necessari all'educazione del futuro. Raffaello Cortina. (Opera originale pubblicata 1999)

OECD. (1996). The knowledge-based economy (OCDE/GD(96)102). Organisation for Economic Co-operation and Development. https://one.oecd.org/document/OCDE/GD(96)102/En/pdf

Ostrom, E. (1990). Governing the commons: The evolution of institutions for collective action. Cambridge University Press.

Peters, M. A. (2019). Knowledge socialism: The rise of peer production — collegiality, collaboration, and collective intelligence. Educational Philosophy and Theory, 53(1), 1–9. https://doi.org/10.1080/00131857.2019.1654375

Peters, M. A. (2020). Digital socialism or knowledge capitalism? Educational Philosophy and Theory, 52(1), 1–10. https://doi.org/10.1080/00131857.2019.1593033

Peters, M. A., Besley, T., Jandrić, P., & Zhu, X. (Eds.). (2020). Knowledge socialism: The rise of peer production: Collegiality, collaboration, and collective intelligence. Springer.

Postone, M. (1993). Time, labor, and social domination: A reinterpretation of Marx's critical theory. Cambridge University Press.

Raymond, E. S. (1999). The cathedral and the bazaar: Musings on Linux and open source by an accidental revolutionary. O'Reilly Media.

Romer, P. M. (1990). Endogenous technological change. Journal of Political Economy, 98(5, Part 2), S71–S102. https://doi.org/10.1086/261725

Virno, P. (2001). General intellect. In A. Zanini & U. Fadini (Eds.), Lessico postfordista: Dizionario di idee della mutazione (pp. 146–152). Feltrinelli.

WTO. (1994). Agreement on trade-related aspects of intellectual property rights (TRIPS). World Trade Organization. https://www.wto.org/english/docs_e/legal_e/trips_e.htm

Synthetic Notes

[1] La coppia "politicamente ingiusto / epistemologicamente falso" è la mossa argomentativa più ambiziosa del saggio, e va identificata come tale. Le due affermazioni hanno statuto logico diverso: che il capitalismo cognitivo sia ingiusto è un giudizio normativo su cui si può argomentare; che sia "falso" in senso epistemologico è un'affermazione molto più forte, che presuppone una teoria della conoscenza come fatto (la sua natura collettiva e relazionale) da cui deriverebbero implicazioni politiche quasi necessarie. Ma dalla descrizione di come la conoscenza funziona non si ricava automaticamente come debba essere organizzata socialmente: è il classico problema della fallacia naturalistica applicato alla filosofia politica. Morin può avere ragione che la conoscenza sia relazionale, e un sostenitore del capitalismo cognitivo potrebbe rispondere che proprio per questo il mercato (sistema relazionale per eccellenza) è il meccanismo più adeguato a coordinarla. Il saggio non chiude questa obiezione.

[2] L'affermazione che il sapere "non è mai stato proprietà di nessuno" è storicamente imprecisa e vale la pena segnalarlo. Sistemi di controllo esclusivo della conoscenza esistono in tutte le culture umane documentate: segreti rituali custoditi da caste sacerdotali, tecniche artigianali trasmesse per via familiare e protette dalla segretezza, saperi medici e farmacologici delle comunità indigene tramandati selettivamente. La storia della conoscenza non è la storia di un commons originario poi violato dall'enclosure capitalista: è la storia di molteplici regimi di accesso, inclusione ed esclusione, alcuni dei quali il capitalismo cognitivo ha effettivamente peggiorato, altri ha paradossalmente aperto. Questa storicizzazione non indebolisce la critica al capitalismo cognitivo, ma la rende più precisa e meno dipendente da un'immagine idealizzata del passato.

[3] La critica al TRIPS è ampiamente condivisa nella letteratura critica sull'economia politica internazionale. Vale però segnalare che il dibattito sul sistema brevettuale non è monolitico: una parte degli economisti dello sviluppo sostiene che una protezione minima della proprietà intellettuale possa incentivare il trasferimento tecnologico verso i paesi a basso reddito, e che l'abolizione totale dei brevetti farmaceutici (senza meccanismi alternativi di finanziamento della ricerca) produrrebbe effetti controversi sull'innovazione medica. L'argomento del saggio (che il TRIPS sia uno strumento di cattura di rendita a vantaggio del Nord globale) è storicamente fondato e supportato da letteratura autorevole, ma il lettore dovrebbe sapere che le conclusioni di politica economica che ne derivano non sono consensuali.

[4] L'affermazione che la direzione di marcia sia stata "ovunque la stessa" è empiricamente contestabile. La varianza tra sistemi universitari nazionali è significativa: le università tedesche, scandinave e di parte dell'Europa continentale hanno mantenuto gradi di autonomia dalla logica di mercato e livelli di finanziamento pubblico strutturalmente diversi da quelli angloamericani che dominano i ranking e la letteratura critica sull'università imprenditoriale. Clark (1998) costruisce la propria analisi su casi specifici (Warwick, Twente, Strathclyde, Chalmers e Joensuu) che non sono rappresentativi del sistema universitario globale. Universalizzare quella traiettoria rischia di oscurare che la forma specifica del capitalismo cognitivo accademico è in parte il prodotto di scelte politiche nazionali contingenti, il che implicherebbe che siano reversibili più di quanto il testo lasci intendere. C'è poi un secondo punto cieco, più sottile. Il termine di paragone implicito (l'università medievale come "repubblica delle lettere" dedita alla ricerca disinteressata) è una costruzione retrospettiva che la storia delle istituzioni non supporta pienamente. L'università medievale era una corporazione professionale con accesso rigidamente controllato per genere, classe e confessione religiosa; la ricerca "disinteressata" era spesso ricerca al servizio della teologia e del potere ecclesiastico. Usarla come immagine di un commons cognitivo pre-mercantile significa attribuire a un'istituzione storicamente esclusiva una funzione normativa che non aveva. Il problema dell'università contemporanea è reale; la sua diagnosi non ha bisogno di un'età dell'oro che non è esistita.

[5] Il dato di Larivière et al. (2015) è accurato e ampiamente citato, ma la conclusione normativa che ne viene tratta merita qualificazione. Il sistema editoriale accademico è critica legittima e diffusa, inclusa all'interno delle istituzioni accademiche stesse (il movimento open access nasce in larga misura dall'interno). Tuttavia l'alternativa (la transizione integrale all'open access) ha generato proprie distorsioni: il modello APC (Article Processing Charges), dove non è il lettore ma l'autore a pagare per la pubblicazione, ha prodotto proliferazione di riviste predatorie e barriere per i ricercatori di paesi a basso reddito che non possono permettersi le tariffe di pubblicazione. Il problema strutturale esiste; la soluzione non è ancora definita.

[6] La ricezione del "Frammento sulle macchine" nella tradizione postoperaista italiana (Virno, Negri, Hardt) è una tra le letture possibili, e non la più filologicamente cauta. Studiosi come Moishe Postone hanno argomentato che le categorie del Frammento vadano lette nel contesto della critica marxiana al valore: non come anticipazione del knowledge worker post-fordista, ma come analisi interna alla logica del capitale che rimane autocontraddittoria (Postone, 1993). L'uso che Peters fa del general intellect come fondamento del socialismo della conoscenza è teoricamente stimolante, ma è un'elaborazione selettiva di Marx, non una sua applicazione diretta. Il lettore dovrebbe trattarla come eredità critica reinterpretata, non come esegesi.

[7] La ricerca di Ostrom è un contributo fondamentale e giustamente premiato. Va però segnalato che i casi che ha studiato più sistematicamente (sistemi di irrigazione in Nepal, gestione della pesca in Turchia, foreste in Giappone) sono comunità relativamente piccole, omogenee, stabili, in cui i membri si conoscono direttamente e hanno ripetuti contatti nel tempo. Il salto ai knowledge commons digitali globali (comunità potenzialmente enormi, anonime, eterogenee, sparse in tutto il mondo) è teoricamente plausibile ma empiricamente più fragile di quanto il saggio suggerisca. Ostrom stessa era cauta nell'estendere i suoi principi a scale e contesti molto diversi da quelli studiati empiricamente.

[8] Questa è la tesi più provocatoria del saggio e merita di essere identificata chiaramente come posizione normativa, non come descrizione analitica. L'affermazione che il capitalismo cognitivo "cattura" il sapere prodotto collettivamente (piuttosto che crearne di nuovo) dipende da dove si tracci il confine tra "produzione" e "appropriazione". Un economista mainstream risponderebbe che le corporations tecnologiche producono valore attraverso l'ingegneria, l'infrastruttura, la selezione e l'organizzazione dell'informazione, non semplicemente appropriandosi di contenuti preesistenti. La risposta critica a questa obiezione esiste ed è articolata, ma il testo la aggira piuttosto che affrontarla. Il lettore dovrebbe sapere che questa non è una descrizione di ciò che accade, ma una interpretazione del significato politico di ciò che accade.

[9] L'argomento wittgensteiniano contro il linguaggio privato è filosoficamente potente, ma il salto dalla filosofia del linguaggio alla teoria della proprietà intellettuale richiede passaggi intermedi che il saggio non esplicita. Il fatto che il significato sia pubblico non implica direttamente che i prodotti cognitivi specifici (un romanzo, un farmaco, un algoritmo) non possano generare diritti di proprietà di qualche tipo. Filosofi della proprietà intellettuale come William Fisher o Neil Netanel hanno elaborato posizioni che riconoscono la natura sociale della conoscenza e contestualmente difendono forme limitate di protezione come incentivo alla produzione. Wittgenstein non dà ragione a Peters tanto automaticamente quanto il saggio lascia intendere.

[10] La proposta dell'AI open source come soluzione al problema della concentrazione cognitiva merita qualificazione. L'esperienza recente dei modelli open source (Llama di Meta, Mistral, altri) mostra che la disponibilità pubblica dei pesi non equivale necessariamente alla democratizzazione dell'accesso: addestrare un modello competitivo richiede infrastrutture di calcolo e dati la cui concentrazione è altrettanto problematica della proprietà del software. Secondariamente, il rilascio open source dei modelli più potenti pone problemi di sicurezza (proliferazione per usi dannosi) che la letteratura sulla AI governance sta affrontando senza aver raggiunto consenso. "Open source" nell'AI non è la stessa cosa dell'open source nel software tradizionale, e trattarlo come sinonimo semplifica un dibattito complesso.

[11] Questa critica interna al saggio è corretta e ben posta. Vale la pena aggiungere che il bias di Wikipedia è documentato quantitativamente: studi sulla composizione degli editor mostrano che oltre il 90% è maschile, prevalentemente del Nord globale, prevalentemente con istruzione universitaria. Il problema non è solo di contenuto (quali voci esistono) ma di processo (chi decide cosa è verificabile, cosa è rilevante, cosa viola le linee guida). Le comunità di commons cognitivi replicano spesso le gerarchie sociali esistenti, semplicemente in forma meno visibile. La critica del saggio è giusta nel sollevare il problema; potrebbe essere più radicale nell'indicare che questa non è un'imperfezione correggibile, ma una tensione strutturale di qualsiasi sistema di governance comunitaria in assenza di meccanismi espliciti di equità.

Pubblicato il 21 aprile 2026

Francesco Mantello

Francesco Mantello / Trasformo complessità tecnologica in valore umano / Software Craftsman + Behavioral Designer / Spacciatore di Euristiche