Go down

Più che un insieme di discipline, le discipline umanistiche designano un certo tipo di attività intellettuale che si riferisce a modi di leggere, giudicare e interpretare. Questi coinvolgono il soggetto nel suo rapporto con il significato e la validità di ciò che afferma. Un'esigenza urgente per l'università contemporanea, che ha il compito di formare menti capaci di rispondere dei propri discorsi, in un contesto in cui questi possono ora essere prodotti senza un soggetto.


Quando produrre testo non basta più per pensare

Tra i recenti modi di affrontare la questione dell'IA nel discorso pubblico, uno di questi, negli ultimi mesi ,si è distinto nel panorama accademico: l'affermazione che i Large Language Models (LLM) ci invitano, in ambito educativo, a tornare a quelle che chiamiamo "discipline umanistiche". La risposta sarebbe sorprendente se consistesse semplicemente nel contrapporre conoscenze tradizionali e antiche a una modernità le cui possibilità ci preoccupano. Ha più senso, tuttavia, se comprendiamo che nasce da una riflessione su come utilizzare al meglio questi strumenti emergenti, spingendoci a valutare le possibilità offerte da questi programmi, ma anche a valutarne i limiti.

Gli LLM sono infatti ora in grado di produrre, in pochi secondi, riassunti, saggi, sintesi ragionate e argomentazioni plausibili. Questa capacità, ormai ampiamente accessibile, sta rivoluzionando le pratiche accademiche e didattiche, consentendo una produzione testuale che, in una certa misura, adotta le forme attese del lavoro intellettuale. Diventa possibile ottenere testi strutturati e coerenti senza un reale impegno personale, mentre tali produzioni erano precedentemente associate alla riflessione, alla lettura e alla scrittura. Questo fatto, semplice ma decisivo, costituisce il punto di partenza per molte riflessioni critiche contemporanee che circondano gli LLM e ci invita a riflettere su ciò che differenzia la produzione e la lettura di testi umani da quelli generati artificialmente.

Una lingua senza mondo

Senza addentrarci in dettagli tecnici inutilmente complessi, ricordiamo alcuni punti sul funzionamento degli LLM: sono modelli statistici addestrati a prevedere la validità più probabile di un'affermazione (il token successivo) in base al suo contesto.[1]. E lo fanno imparando da vasti archivi testuali, attraverso quello che viene chiamato "pre-addestramento" (che costituisce la famosa "P" di "GPT"). Nutrendosi di immensi archivi, condensano una porzione considerevole della cultura scritta umana. Interagire con un tale modello non significa quindi semplicemente interagire con una macchina, ma incontrare una memoria: una memoria culturale, impersonale e sedimentata, composta da testi, stili, ragionamenti e tradizioni intellettuali accumulati nel corso dei secoli. Ciò che il modello mobilita, quindi, sono forme ereditate, modi consolidati di scrivere e pensare, regolarità culturali.

In questo senso, gli LLM danno accesso a una capacità senza precedenti di esplorare la cultura scritta. Ricombinano, spostano e riuniscono elementi di diverse tradizioni, rivelando analogie e continuità che possono rivelarsi euristiche. Questa capacità di ibridazione, del resto, non è estranea alla cultura umana stessa: inventare non ha mai significato creare ex nihilo, ma sempre ricomporre, trasformare, ricevere e modificare forme esistenti. Una tale concezione della cultura come combinazione e ibridazione ha certamente trovato la sua espressione più famosa nel racconto di Borges "La biblioteca di Babele". In esso, l'autore immaginava una biblioteca infinita contenente tutte le possibili combinazioni di lettere, e quindi tutte le possibili idee e libri. In un certo senso, i grandi modelli linguistici realizzano qualcosa di simile su una scala senza precedenti: esplorano uno spazio combinatorio, non infinito e assurdo (poiché la biblioteca immaginaria di Borges doveva contenere molti libri illeggibili e del tutto privi di interesse), ma strutturato dalle regolarità statistiche della scrittura. Anziché produrre combinazioni qualsiasi, gli LLM si concentrano su quelle rese più probabili dagli usi e dalle forme riconosciute della lingua. In questo senso, esplorano la cultura scritta digitalizzata (che, va notato, costituisce solo una parte della cultura complessiva) come uno spazio di possibilità standardizzate.

Questa potenza combinatoria degli LLM produce risultati davvero sorprendenti, che sorprendono persino i loro ideatori. Ingegneri informatici e matematici, per loro stessa ammissione, non sono in grado di spiegare perché funzioni così bene. Questo ci spinge a riflettere sul funzionamento della produzione culturale stessa: poiché alcune opere generate da sollecitazioni avanzate o create da modelli specifici tramite una sottile messa a punto imitano le nostre opere, così da essere praticamente indistinguibili, dovremmo considerare il fatto che la produzione culturale si basa certamente molto più di quanto pensassimo su meccanismi affini alla combinazione. 

Detto questo, questa capacità incontra tuttavia un limite decisivo nella creazione. Mentre le statistiche ci consentono di riprodurre norme, non le stabiliscono. Gli LLM seguono le regolarità di ciò che è stato detto, riconosciuto e stabilizzato, senza essere in grado di decidere se una norma debba essere modificata o abbandonata. È in questo senso che Kant, nella Critica del Giudizio, ha distinto la vera invenzione dalla mera riproduzione. Ciò che lui chiamava, usando un termine un po' desueto, "genio" consisteva proprio nello stabilire nuovi codici, nel dare regole all'arte e nel formare nuove scuole.

In realtà, se gli LLM non possono essere creativi nel vero senso della parola, non si tratta di un limite accidentale, ma strutturale. Gli LLM producono contenuti senza mai confrontarsi direttamente con il mondo al di là dei dati linguistici esistenti. Nessun miglioramento tecnico attraverso Transformers, Chain-of-Thought, espansione dei dati o fine-tuning può risolvere questo problema. Non parlano mai a partire da un'esperienza vissuta a cui sono stati esposti, ma rimangono ciò che la filosofa Hilary Putnam, attraverso un esperimento mentale, ha definito "cervelli in una vasca"[2] Sistemi neurali capaci di manipolare rappresentazioni senza mai essere in grado di metterle in relazione con le condizioni della loro comparsa.

Putnam intendeva dimostrare che significato e riferimento non possono essere interamente interni alla mente: un soggetto privato di qualsiasi contatto causale con il mondo non potrebbe realmente farvi riferimento. Questa tesi, che egli chiama "esternalismo semantico", affermava quindi che il significato dipende non solo dal linguaggio, ma anche da una relazione effettiva con il mondo esterno. Yann LeCun, considerato uno degli inventori del deep learning, ha offerto una critica illuminante a questo proposito. Annunciando il 19 novembre 2025 il suo abbandono di Meta, dove ricopriva il ruolo di direttore scientifico dell'intelligenza artificiale, per fondare una startup dedicata a sistemi in grado di "comprendere il mondo fisico", ha criticato aspramente un settore troppo concentrato esclusivamente sui modelli linguistici. Da allora ha sostenuto modelli basati sulla percezione e sull'azione, ovvero modelli con una relazione più completa con il mondo.

Per un essere umano, parlare non significa semplicemente produrre affermazioni coerenti o plausibili. Si tratta sempre di dire qualcosa su qualcosa, all'interno di una situazione specifica. Al contrario, gli LLM parlano dall'interno delle norme, ma senza l'esposizione alla realtà che potrebbe sconvolgerne la struttura, positivamente o negativamente. Eccellono quindi nell'esplorare uno spazio preesistente di possibilità, senza mai essere in grado di stabilire nuove forme.

Questa osservazione non squalifica l'uso degli LLM come strumenti. Al contrario, ne chiarisce lo status. Le IA sono potenti dispositivi di manipolazione simbolica, capaci di produrre analogie statistiche su una scala senza precedenti. Ma ciò che costituisce il valore di un pensiero, di un giudizio o di un'opera non può essere ridotto a combinazioni linguistiche, per quanto immensamente sofisticate: richiede un'esperienza del mondo che non sia meramente linguistica e statistica.

È questa mancanza di mondo che, al contrario, illumina il valore delle grandi narrazioni di vita e di viaggio nelle opere umane, da Tucidide a Nicolas Bouvier, passando per Sant'Agostino o Marguerite Yourcenar. Queste narrazioni testimoniano un coinvolgimento con il mondo che non può essere ridotto alla mera mediazione linguistica: coinvolgono un corpo, esperienze e una vulnerabilità agli eventi.

Ed è a questo livello che risiede, in ultima analisi, l'importanza delle opere umane nell'era degli LLM. Ci insegnano, da un lato, che pensare al mondo presuppone avere una relazione con esso, e quindi esplorarlo; e dimostrano, d'altra parte, che produrre un discorso non è semplicemente una ricombinazione di ciò che è già stato detto.

Storicamente, questa esposizione alle grandi opere scritte dell'umanità corrisponde a ciò che è stato chiamato "scienze umanistiche".

Cosa fanno le discipline umanistiche

Per discutere la rilevanza delle discipline umanistiche nel contesto attuale, dobbiamo innanzitutto chiarire cosa hanno storicamente designato e come rimangono rilevanti oggi per la riflessione sulla formazione della mente. Va notato che l'obiettivo qui non è quello di offrire una storia esaustiva, ma piuttosto di delineare brevemente, attraverso alcune figure chiave, ciò che il termine comprende.

In Cicerone[3], le discipline umanistiche inizialmente si riferivano allo studio della letteratura, della retorica e della filosofia. Più che un insieme di discipline, erano soprattutto una pratica orientata allo sviluppo del giudizio morale e della capacità di agire con discernimento nella società. Erano un'educazione per l'individuo libero, educato alla deliberazione e alla responsabilità pubblica. Da ciò, possiamo già comprendere che le discipline umanistiche inizialmente significavano un'ambizione: quella di elevare l'umanità, guidarla e accompagnarla nei vari aspetti della sua vita, plasmandone il giudizio.

Durante il Rinascimento, gli umanisti raccolsero e trasformarono questa eredità attraverso gli studia humanitatis. Contro una scolastica caratterizzata da una lettura largamente mediata delle opere, filtrata attraverso catene di commenti, promossero un ritorno ai testi stessi, secondo l'adagio ad fontes: "ritorno alle fonti". Leggere, interpretare e tradurre i testi classici divennero allora esercizi centrali nella formazione umana. Questa situazione non è dissimile da quella attuale, in cui la proliferazione di riassunti e note di sintesi prodotte dagli LLM tende a sostituire la lettura dei libri stessi. In questo contesto, diventa ancora una volta rilevante riaffermare questa dottrina di cinque secoli fa: ad fontes, torniamo alla lettura dei grandi testi, prestando attenzione ai loro dettagli, al loro linguaggio e al modo in cui un pensiero viene espresso.

Con l'Illuminismo, e in particolare con l'opera di Kant, le discipline umanistiche entrarono a far parte di una concezione della cultura definita non dall'utilità immediata, ma dallo sviluppo dell'uso libero e critico della ragione. Miravano alla formazione di un soggetto autonomo, capace di pensare autonomamente e di stabilire le proprie regole intellettuali e morali. Questa ingiunzione a superare la mera utilità risuona con una questione contemporanea: mentre le discipline umanistiche producevano testi formalmente soddisfacenti, mettevano in luce il fatto che certe pratiche – anche in ambito scolastico e accademico – si basavano già sulla riproduzione di forme piuttosto che sull'esercizio di un pensiero originale.

Questi dati ci permettono quindi di identificare una costante: più che un insieme di discipline, le discipline umanistiche designano un certo tipo di attività intellettuale che si riferisce a modi di leggere, giudicare e interpretare. Questi coinvolgono il soggetto nel suo rapporto con il significato e la validità di ciò che afferma – un'esigenza urgente per l'università contemporanea, che ha il compito di formare menti capaci di rispondere dei propri discorsi, in un contesto in cui questi possono ora essere prodotti senza un soggetto.

Su un equivoco contemporaneo: l'illusione delle catene di pensiero

Infine, approfittiamo di questa discussione sulle specificità del linguaggio umano rispetto a quello dell'intelligenza artificiale per affrontare una confusione comune.

Il punto classico della filosofia della mente per distinguere l'uomo dalla macchina[4] La tesi sosteneva che, pur potendo imitare la comprensione umana, non avrebbe mai avuto accesso alla comprensione o alla "consapevolezza" del contenuto delle affermazioni che produceva. Sulla base di ciò, un'importante controargomentazione è emersa nei recenti sviluppi dell'LLM con l'introduzione di quelle che sono state chiamate "catene di pensiero". (Chain-of-Thought[5]), tendendo ad essere sistematicamente integrato nell'architettura dei modelli dal 2025. Piuttosto che produrre direttamente una risposta finale, questi modelli sono programmati per generare una successione di passaggi intermediari, formando una linea di ragionamento esplicita, mirano a migliorare le proprie prestazioni in compiti complessi. Da qui, alcuni osservatori contemporanei hanno suggerito che questa potrebbe essere una forma di ragionamento analoga al pensiero umano, sulla base del fatto che queste sequenze si svolgono come una successione di momenti logicamente articolati in cui il programma ha accesso ai propri passaggi di ragionamento, il che gli consente di giustificare passo dopo passo le risposte prodotte. Tuttavia, l'analogia è fuorviante.

Su questo punto, è infatti essenziale distinguere tra due cose: ragionamento e riflessione. Il ragionamento si riferisce a una catena di affermazioni secondo regole di coerenza o inferenza; può essere valido o non valido, corretto o scorretto. La riflessione, d'altra parte, non si limita a questa continuità formale.

Infatti, cos'è la riflessione, nel senso più vero del termine? Come intesa dalla tradizione filosofica a partire da Cartesio, la riflessione umana è un'operazione motivata dal dubbio. Riflettere non significa semplicemente mettere insieme ragioni o produrre inferenze. Il termine si riferisce inizialmente, per analogia con la riflessione speculare in fisica, a un'interruzione, poi all'atto di allontanarsi temporaneamente dall'oggetto incontrato per tornare a se stessi. Così, il Pensatore di Rodin medita seduto, immobile. Allo stesso modo, nel dipinto Il Pensiero di Jean Despuljols, osserviamo una lettrice, con l'indice appoggiato sulla riga di un libro aperto in grembo, lo sguardo rivolto verso l'alto, persa in uno stato di confusione. Riflettere, quindi, significa innanzitutto sospendere la propria azione, la propria lettura, il filo conduttore abituale del proprio pensiero, per soffermarsi su ciò che resiste. Questa sospensione presuppone tempo, distanza e sforzo.

Al contrario, le catene di LLM sono continue e non vissute. Assomigliano a riflessioni, ma senza intuizione iniziale, senza interruzione e indubbiamente senza dubbio. Mettono insieme risposte plausibili senza che nulla ponga loro realmente un problema e senza assumersi alcuna responsabilità per le loro affermazioni (di cui i loro numerosi errori, chiamati "allucinazioni", sono un sintomo). Mentre il pensiero umano può errare, esitare e divagare, può anche dubitare, fermarsi e riconsiderare le proprie affermazioni. È questa consapevolezza del potenziale di errore che, in ultima analisi, sostiene la riflessione. Se usati in modo improprio, gli LLM tendono a cortocircuitare il momento di pausa di fronte a un problema, proprio il momento in cui dovrebbe sorgere la riflessione. Delegare una difficoltà a un programma senza prima affrontarla significa bypassare questo processo di riflessione che l'esperienza del mondo reale rende possibile. Il rischio, già ampiamente riscontrato nella didattica con gli studenti, è che l'intelligenza artificiale diventi un processo automatico che sostituisce il pensiero.

 

Questo testo è una riproduzione leggermente adattata di un articolo apparso per la prima volta in francese sulla rivista della conferenza Sciences Po il 26/01/2026.


Note

[1] Su questa fondamentale attenzione al contesto, vedere Ashish Vaswani et al., “Attention Is All You Need”, 2017. Mentre i modelli precedenti trattavano il linguaggio in modo sequenziale, parola per parola, la rivoluzione dei Transformers ci consente di considerare un'intera frase simultaneamente.

[2] Hilary Putnam, Reason, Truth and History (Cambridge : Cambridge University Press, 1981).

[3] “Questi studi nutrono la giovinezza, rallegrano la vecchiaia, accrescono la felicità, offrono rifugio e consolazione nelle avversità; ci rallegrano nella vita privata, non ci ostacolano in quella pubblica; vegliano su di noi, viaggiano con noi, ci accompagnano in campagna.” Cicerone, Al poeta Archia. »

[4] John R. Searle, “Minds, Brains, and Programs,” Behavioral and Brain Sciences 3, no. 3 (1980): 417–457. Searle y propose l’expérience de pensée dite de la « chambre chinoise » pour soutenir qu’un système manipulant des symboles peut simuler la compréhension sans réellement comprendre.

[5] Jason Wei et al., “Chain-of-Thought Prompting Elicits Reasoning in Large Language Models,” arXiv (2022), https://arxiv.org/abs/2201.11903

Pubblicato il 01 febbraio 2026

Garance Benoit

Garance Benoit / Professeure de philosophie

http://www.hal.science