Go down

Una conversazione con lo scienziato sociale e pensatore sistemico Piero Dominici, articolata e pubblicata in quattro parti separate. Una scelta che risponde a un’esigenza metodologica precisa: sottrarre il discorso alla continuità narrativa per riportare in primo piano la densità problematica di ciascuna domanda. Il testo della terza domanda.


Riprendere un’intervista già pubblicata integralmente significa assumere che il testo non si esaurisca nella sua prima circolazione. La versione completa del dialogo con il professor Piero Dominici, apparsa su Stultifera Navis, ha restituito l’ampiezza di un confronto teorico articolato e stratificato. Tornarvi ora, articolandolo in quattro parti, risponde a un’esigenza metodologica precisa: sottrarre il discorso alla continuità narrativa per riportare in primo piano la densità problematica di ciascuna domanda.

La forma dell’intervista, nella sua versione completa, restituisce il movimento del dialogo, le connessioni tra i temi, le risonanze interne; questa continuità, tuttavia, può rendere meno visibili i nuclei concettuali che attraversano le singole domande. Isolare ciascun passaggio significa creare uno spazio di attenzione più concentrato, che consenta di sostare sui presupposti teorici, sulle implicazioni e sulle eventuali tensioni interne alle risposte.

Ogni domanda apre infatti un campo problematico autonomo. Lavorare su ciascuna di esse permette di esplicitare ciò che nell’andamento dialogico resta implicito e di approfondire passaggi che, nel flusso complessivo, rischiano di essere assorbiti dalla progressione del discorso. Non si tratta di ripetere quanto già pubblicato, ma di rileggerlo criticamente, mettendo a fuoco le categorie utilizzate, le scelte terminologiche, le prospettive teoriche che emergono.

Questa articolazione in quattro parti intende trasformare l’intervista da documento unitario a laboratorio concettuale. La pubblicazione integrale resta il riferimento necessario; la suddivisione successiva introduce una seconda fase di elaborazione, nella quale ogni domanda diventa occasione di analisi puntuale e di confronto.

In questo senso lo “spacchettamento” non riduce il testo, ma lo densifica: consente di rallentare la lettura, di assumere una postura più analitica e di restituire alle singole questioni il peso che meritano.


La terza domanda si colloca sul terreno dell’ambivalenza tecnologica. La tecnica non costituisce un destino né una minaccia esterna, ma configura ambienti, ritmi cognitivi, forme di attenzione. L’ecosistema digitale tende a privilegiare velocità e polarizzazione, favorendo strutture di senso che comprimono l’ambiguità e riducono la stratificazione dei problemi. In Proprietà emergenti la diagnosi dell’obsolescenza di molti paradigmi epistemologici investe proprio questa incapacità di reggere la complessità dei sistemi interconnessi.

Il punto non riguarda un generico uso “migliore” delle tecnologie, ma la trasformazione delle categorie attraverso cui le pensiamo e le progettiamo. Se le piattaforme orientano comportamenti e aspettative, il sapere che le attraversa deve essere in grado di riconoscere le proprietà emergenti dei sistemi e l’indeterminazione che li caratterizza. La domanda insiste su questa tensione: quali condizioni rendono possibile un impiego delle tecnologie capace di coltivare un pensiero sfumato, sensibile alle ambivalenze e refrattario alla semplificazione? E ancora, è pensabile una nuova configurazione epistemica che restituisca al pensiero una funzione critica all’interno degli ambienti digitali che lo sollecitano e al tempo stesso lo frammentano? È su questi nodi critici che si concentra il testo che riproniamo.

Il Prof. Piero Dominici (PhD, professore associato presso l’Università degli Studi di Perugia, scienziato sociale e filosofo, educatore e pensatore sistemico, Direttore Scientifico di CHAOS e – tra i più recenti incarichi internazionali – Executive President of the Board of Directors dell’International Engineering and Technology Institute (IETI) e Advisory Board Member presso l’Interdisciplinary Social Science Research Network, è da tempo impegnato in una riflessione profonda sulla complessità come paradigma epistemologico, etico e politico. Nei suoi scritti – tra cui i più recenti Proprietà emergenti. «Emergent properties»: dimensioni qualitative del sociale e sfide epistemologiche dell’Intelligenza Artificiale (FrancoAngeli, 2024) e Oltre i cigni neri. L’urgenza di aprirsi all’indeterminato (FrancoAngeli, 2023) – emerge con chiarezza l’urgenza, necessaria, di superare le semplificazioni, di ripensare i processi formativi e di restituire alla vulnerabilità, all’errore e all’indeterminato un ruolo generativo all’interno del pensiero critico.

Keren Ponzo - Nel suo lavoro ricorre con forza l’idea che la tecnologia non vada demonizzata né idealizzata, ma compresa nella sua ambivalenza. Viviamo immersi in un ecosistema digitale che tende a proporre risposte rapide e schemi binari, spesso disabituando al pensiero complesso. In Proprietà emergenti lei invita a riconoscere l’obsolescenza di molti paradigmi epistemologici e a ripensare radicalmente il nostro rapporto con la conoscenza. Come possiamo utilizzare le tecnologie per coltivare un sapere più sfumato, aperto all’indeterminato e capace di abitare le ambiguità senza ridurle? È possibile pensare a una nuova episteme, che rifiuti la semplificazione e che restituisca al pensiero la sua funzione critica?

 [Per la critica ai paradigmi epistemologici: Piero Dominici, Proprietà emergenti. «Emergent properties»: dimensioni qualitative del sociale e sfide epistemologiche dell’Intelligenza Artificiale, FrancoAngeli, Milano 2024. Sul concetto di episteme: Michel Foucault, Le parole e le cose. Un’archeologia delle scienze umane, Bur, Milano 2020.]

Piero Dominici - Partiamo da un presupposto forte, spesso evocato, ma disatteso in una prospettiva/ottica ecosistemica: la tecnologia non è mai “neutra” – né tanto meno “esterna” alla cultura - trasforma gli ecosistemi e viene, da questi, costantemente trasformata. Il problema fondamentale è, sempre, il paradigma culturale ed epistemologico dentro cui la tecnologia viene progettata, governata, distribuita e utilizzata. Demonizzazione o idealizzazione sono due dimensioni diverse del medesimo processo di semplificazione, entrambe incapaci di coglierne le potenzialità, le implicazioni, ancora una volta, epistemologiche ed etiche, oltre che l’ambivalenza strutturale, costitutiva, ontologica.

A tale presupposto, aggiungo una considerazione: rilevo ancora poca consapevolezza di quanto proprio l’ipervelocità ostacoli (eufemismo) il pensiero critico, sia in termini di generazione che di co-costruzione.

Viviamo immersi in un ecosistema digitale interamente edificato sulla velocità, l’automatismo, la simulazione, e alimentato da processi di sistematica riduzione, semplificazione, facilitazione le cui dinamiche producono diversi effetti collaterali, dalle profonde implicazioni: tra quelli più evidenti, la progressiva disabitudine al pensiero critico, alla fatica del dubbio e di uno sguardo sistemico/complesso, all’esercizio dell’approfondimento e della comparazione che hanno bisogno di tempo e lentezza, anche a livello cognitivo. Ma - meglio esplicitarlo - non perché la tecnologia, come dire, ce lo imponga in modo deterministico; quanto, piuttosto, perché noi umani continuiamo ad usarla facendo riferimento a principi inadeguati e categorie epistemologiche obsolete, figlie di una razionalità lineare, meccanicistica, inevitabilmente semplificante e di quello che definii, molti anni fa, “pensiero disgiuntivo”.

Quando, di recente,  nella monografia scientifica Proprietà emergenti, torno a parlare di obsolescenza dei paradigmi (1995), intendo proprio questo: non siamo di fronte a una crisi della conoscenza, ma a una crisi del nostro modo di pensare e definire la conoscenza che ci conduce, seppur lentamente, a maturare la consapevolezza dell’inadeguatezza dei metodi e degli strumenti per raggiungere la conoscenza. Continuiamo a vedere e cercare (soltanto) certezze ovunque e, in ogni caso, a raccontarci/rappresentarci di averne molte, pur trovandoci in un mondo che è strutturalmente imprevedibile  e indeterminato; in altri termini, continuiamo a cercare e a pretendere, anche da noi stessi, il controllo totale proprio laddove emergono proprietà/dinamiche non pienamente osservabili e, di conseguenza, non governabili/gestibili. E, quel che è peggio,  confondendo l’informazione con la conoscenza e il sapere, i dati con il senso, il calcolo con la comprensione.

Perché, “verba volant, scripta …”

A tal proposito, diversi anni fa ho proposto il concetto e la relativa definizione operativa di “No-Knowledge Society”, dibattendone in numerose conferenze internazionali e in diverse pubblicazioni, sia scientifiche e divulgative.

Negli anni, in cui li ho proposti,  erano originali e hanno sostenuto il mio impianto teorico-epistemologico, elaborato anche come critica radicale alle retoriche e narrazioni della/sulla “Società della Conoscenza”, presentata come sempre più aperta e inclusiva, soprattutto nelle sue formulazioni tecnocratiche, tecnoscientifiche e iper-semplificanti.

In estrema sintesi, il concetto e la definizione di No-Knowledge Society non indicano, in alcun modo, una società - un ecosistema globale - priva di informazioni o tecnologie, né tanto meno un arretramento cognitivo dal punto di vista quantitativo o dell’efficienza (di una certa visione dell’efficienza) dei cd.sistemi esperti.

Il concetto e la definizione operativa di No-Knowledge Society** indicano e definiscono  una società (ecosistema) che, pur iper-producendo e condividendo - a grande velocità - dati, informazioni e sistemi “intelligenti” (?) - che a loro volta alimentano incessantemente questi flussi - perde/smarrisce il rapporto critico, riflessivo ed epistemologico - profondo e complesso - con la conoscenza stessa. Un discorso, il mio, che riguarda evidentemente anche gli ecosistemi di intelligenze artificiali che continuano ad essere associati al concetto di “autonomia”…la vecchia, atavica, confusione tra “autonomia” e “automazione” di cui parlo da tempo (1996).

Tra le dimensioni/nuclei fondamentali della No-Knowledge Society, ho richiamato, in illo tempore, le seguenti:

  • Confusione sistematica (e strumentale) tra informazione, sapere e conoscenza;
  • erosione/indebolimento della conoscenza/competenza critica a favore dell’automatizzazione e dell’istruzione (trasmissione);
  • delega cognitiva* (totale) crescente alle tecnologie ed ai sistemi di AI;
  • riduzione della conoscenza ad una funzione strumentale, di “utilità”, ed esclusivamente pragmatico-applicativa;
  • “illusione diffusa” di sapere e di poter conoscere tutto - con poco impegno/fatica/sacrificio/tempo - generata dall’accesso immediato ai dati (anche su questo punto, si è scritto molto in queste settimane presentando tali tesi come “originali”);
  • analfabetismo multidimensionale in contesti ipertecnologici e, apparentemente, progrediti.

In questa prospettiva di analisi e discorso, la No-Knowledge Society è l’esito paradossale (tra i tanti esisti paradossali) della civiltà ipertecnologica dell’automazione e delle intelligenze artificiali (meglio ri-esplicitarlo: sono straordinarie opportunità non colte, almeno per ora), ed è uno dei concetti chiave attraverso cui si articola la mia analisi critica:

  • alla ideologia egemonica della semplificazione/facilitazione;
  • al determinismo tecnologico, tuttora imperante;
  • all’egemonia della visione tecnocratica della governance, basata solo su dati e algoritmi, “evidence based”.

Mi lasci rilevare, con un certo rammarico, come alcuni colleghi, di recente anche dei campi delle cd. “scienze dure”(Hard Sciences), abbiano recuperato tale concetto, tale tesi/teoria, visione e approccio - con le medesime dimensioni relative alla definizione operativa - preoccupandosi soltanto di parafrasare i testi e/o individuare/proporre neologismi.

Le tecnologie possono/potranno diventare strumenti potenti, potentissimi, per coltivare un sapere più sfumato e condiviso, soltanto a una condizione: che vengano inscritte dentro un progetto educativo, culturale ed epistemologico “forte” e ripensato radicalmente. Come ampiamente evidenziato dagli ultimi decenni, non basta più introdurre nuovi strumenti e/o contenuti: occorre trasformare le cornici cognitive e lavorare a fondo sulle epistemologie. Questo significa, concretamente, educare all’errore, all’ambiguità, al conflitto interpretativo, all’incompiutezza del sapere, alla consapevolezza dell’impossibilità dell’onniscienza e del carattere sempre relativo, probabilistico e statistico delle conoscenze, all’incommensurabilità del reale e della realtà. Significa restituire dignità epistemologica all’incertezza (Morin, 1973 e sgg.) e all’errore (Dominici, 1995 e sgg.) da intendersi, finalmente, non come limite/criticità da eliminare, bensì come spazio generativo.

La nuova episteme, cui anche Lei fa riferimento, non è/non dev’essere un modello/sistema chiuso, né una nuova ortodossia. Di sistemi chiusi ne abbiamo fin troppi! È piuttosto un atteggiamento epistemico, fondato sulla consapevolezza dei limiti, sull’interdipendenza tra saperi, sulla centralità delle relazioni e delle proprietà emergenti. Un’episteme che rifiuta la semplificazione - come principio/valore assoluto - non perché la complessità sia un valore morale (ci mancherebbe!), ma perché è la realtà ad essere complessa, cioè intimamente sistemica e relazionale e, di conseguenza, ogni tentativo di ridurla non può che co-creare una sorta di “cecità cognitiva sistemica”.

In questo senso, la funzione critica, sistemica e cooperativa del pensiero va, in qualche modo, difesa proprio contro l’illusione che le tecnologie possano replicarla (?) e/o, addirittura, sostituirla. L’intelligenza artificiale, come ogni tecnologia, può amplificare le nostre capacità, ma non può e non deve assolverci dalla responsabilità di pensare.

Delegare il pensiero significa rinunciare alla libertà, prima ancora che alla conoscenza. E, mi fa piacere ricordare sempre, in tal senso, la mia vecchia formula …“pensare è agire”.

Abitare la (iper)complessità, l’errore, le contraddizioni, il conflitto, l’ambiguità, non è una resa, bensì un atto di maturità epistemologica. È riconoscere che il sapere non serve a semplificare/eliminare la complessità del mondo, ma a conviverci in modo più consapevole, responsabile e umano. E questa, oggi più che mai, è una sfida eminentemente epistemologica, educativa e culturale, prima ancora che tecnologica.

Occorre tentare di andare oltre una delle eredità del paradigma della Modernità: il problema non è/non è mai stato – non è inutile ribadirlo, ancora una volta - come usare meglio le tecnologie, bensì perché continuiamo a porre/affrontare le relative questioni in termini meramente strumentali  e di raggiungimento di un’utilità. Occorre contrastare, ad ogni livello della prassi sociale e organizzativa, l’idea/la visione egemonica, negativa, per tanti versi devastante, che la conoscenza sia, prima di tutto, uno strumento di controllo e che la tecnologia sia soltanto un mezzo “neutro” da ottimizzare per potenziare, attraverso i processi cognitivi, proprio questo controllo.

Qui – ci torno sopra per un attimo - entra in gioco uno dei nuclei centrali delle mie ricerche:
 la confusione sistematica tra complessità e complicazione (oltre che tra sistemi complicati e sistemi complessi), sulla quale sono tornato, più e più volte, nell’arco di trent’anni di studi e ricerche. Eppure, si tratta di una questione nodale su cui ancora, si fa fatica nella ricerca di una chiarezza non soltanto terminologica e semantica.

Le tecnologie digitali, non soltanto continuano a rendere – insieme con altri fattori e variabili - il mondo sempre più complesso (livelli di interdipendenza, connessioni e livelli di connessione sistemica): rendono visibile/osservabile/emergente una iper-complessità che già esisteva, ma che i paradigmi riduzionisti e semplificanti avevano, in qualche modo, rimosso. Il problema, in altre parole, è che continuiamo a rispondere alle istanze ed alle sfide di questa complessità con strategie di riduzione/semplificazione, producendo quella che chiamo cecità epistemologica e sistemica.

Mi riferisco, nello specifico, al ruolo fondamentale, tuttora sottovalutato, delle “proprietà emergenti” che, nella mia proposta teorica, epistemologica e di ricerca, non sono un’anomalia del sistema, bensì la sua condizione normale di adattamento a processi evolutivi non-lineari.

Tutto ciò ha conseguenze enormi sul piano epistemologico, dal momento che
se l’emergenza è costitutiva, dobbiamo necessariamente prendere atto che:

  • il controllo totale è una mera illusione, anche se ne comprendo la ricerca, talvolta, eccessiva;
  • la previsione non può che rivelarsi sempre parziale e bisognosa di continuo aggiornamento, cooperativo e collaborativo;
  • il “pensiero disgiuntivo” e la razionalità lineare sono del tutto insufficienti.

La Modernità, tra i vari miti, ha costruito quello della previsione/prevedibilità totale: un mito che mostra oggi tutta la sua inadeguatezza di fronte ai sistemi ipercomplessi, interconnessi, non lineari. Le tecnologie digitali e l’IA hanno contribuito a co-creare e alimentare ecosistemi complessi, radicalizzandone e rendendone evidenti, dinamiche e processi irreversibili.

Per questo, nonostante il lungo tempo trascorso, continuo ad insistere sull’obsolescenza dei paradigmi, delle epistemologie, dei saperi, delle competenze. Mai come in questa fase di lunga e sofferta transizione, ne stiamo prendendo atto. Un’obsolescenza che comporta/dovrebbe comportare anche una rottura profonda con tutta l’epistemologia riduzionista e, allo stesso tempo, con quella della semplificazione, insieme con tutta quella cultura della valutazione dominante proprio dentro le istituzioni educative e formative, oltre che nell’intero ecosistema della ricerca scientifica**.

La consapevolezza (profonda) di questa rapida - e irreversibile - obsolescenza, si basa a sua volta sulla presa d’atto della rilevanza strategica dell’errore che, oltre a non essere un fallimento, non è una sorta di deviazione da correggere, bensì una risorsa cognitiva ed epistemologica che, difficilmente, può essere standardizzata in tutte le sue dimensioni.

Il mio impegno di studioso e scienziato sociale – insieme a quello documentato da una letteratura scientifica sterminata e multidisciplinare – è e continuerà ad essere sempre quello di provare a co-creare le condizioni per riuscire a rovesciare il paradigma: una conoscenza che elimina l’errore elimina anche la possibilità di apprendere. Senza errore non c’è esplorazione, non c’è avanzamento, non c’è (riconoscimento della) emergenza, non c’è innovazione autentica. Non c’è libertà, né tanto meno, responsabilità!

In questa prospettiva di analisi e discorso, i processi educativi e formativi, ancora una volta, non sono e non possono essere trasmissione di competenze, bensì, al contrario, condivisione e cooperazione nella complessità, nell’errore, nell’incertezza, nell’apprendimento (sempre) cooperativo.

Nell’ulteriore consapevolezza che l’eccesso di informazione, contrariamente a quanto si potrebbe credere, può produrre ignoranza, non conoscenza.

Le tecnologie possono amplificare/estendere/facilitare l’accesso ai dati ed alle informazioni, ma non produrre “senso”, quel senso incarnato, riflessivo e co-creato/co-prodotto dal contesto e da un apprendimento che non può che essere cooperativo/collaborativo. Quel senso della complessità che si origina anche da lentezza, interpretazione, conflitti cognitivi e culturali, dialogo etc. etc. Tutti elementi che l’ecosistema digitale, per tante ragioni, non da oggi, tende a marginalizzare.

Da questo punto di vista, venendo al titolo della nostra conversazione, non vorrei mai una “nuova episteme” che si configurasse, pur ideale e auspicabile, come un modello/sistema chiuso. Da sempre, tendo a diffidare di qualsiasi nuovo paradigma che pretenda di sostituire il precedente in modo lineare.

Mi piace immaginare questa fase così delicata (anche) in termini di transizione, anche e soprattutto, epistemologica, nella piena consapevolezza dei nostri limiti  e della nostra incompletezza, anche in chiave sistemico-relazionale, e del ruolo sempre più importante assunto dall’urgenza di aprirsi all’indeterminato (cit.).

Una nuova episteme che, a mio avviso, non può che fondarsi su alcuni presupposti fondamentali:

  • la consapevolezza dell’impossibilità dell’onniscienza;
  • il rifiuto del principio della razionalità totale e del controllo totale;
  • l’accettazione dell’indeterminato come condizione ontologica/strutturale;
  • il riconoscimento di una conoscenza sempre corporea, situata, incompleta, collettiva, relazionale.

Nella civiltà ipertecnologica dell’automazione, dunque, difendere e valorizzare la funzione critica del pensiero significa opporsi, in primo luogo, alla sua delega alle macchine.

Di conseguenza, la questione etica - che, per me, è sempre anche epistemologica - ci dovrebbe portare a maturare il convincimento che l’etica non venga dopo la tecnologia: in tal senso, l’ho sempre pensata non come morale/insieme di principi morali, bensì come responsabilità, appunto, epistemica.

La tecnologia può estendere/amplificare la complessità o illuderci di eliminarla, ma la scelta non è, e non sarà mai, di natura tecnica/tecnologica: è e sarà sempre una scelta culturale, educativa ed epistemologica. Senza un pensiero capace di abitare l’indeterminato*, le tecnologie, oltre a non renderci più intelligenti, creeranno le condizioni per una dipendenza da loro pressoché totale.Inizio moduloFine modulo

Alla luce delle tesi e delle argomentazioni sviluppate, quella che in tempi non sospetti già avevo definito la “Dottrina STEM” (nonostante le lettere aggiunte all’acronimo, negli ultimi anni) è, a mio avviso, l’ennesima risposta sbagliata, di evidente impronta riduzionistica e deterministica, alla crescente complessità dei sistemi sociali e dei fenomeni umani. Il paradigma egemone della civiltà ipertecnologica, porta con sé l’illusione di poter marginalizzare l’Umano, portatore di errore e imprevedibilità, delegando (in bianco) le nostre scelte e le nostre responsabilità a sofisticati sistemi artificiali, erroneamente considerati “intelligenti”, e a dispositivi tecnologici interconnessi: la dimensione del tecnologicamente controllato, già divenuta ipertrofica, continuerà ad estendersi e, con essa, la visione ideologica secondo la quale il fattore umano, quello sociale e quello relazionale saranno sempre meno importanti, all’interno dei processi produttivi e culturali. Ci stiamo sempre più convincendo che il digitale e i sistemi di intelligenza artificiale possano risolvere ogni problema, avvicinandoci sempre più ad un’ingannevole facilitazione dei processi di apprendimento ed educativi e preservandoci da ogni pericolo. Ma, contrariamente a certe narrazioni, il fattore umano è “dietro” e “dentro” ogni dinamica, ogni processo, ogni meccanismo, ogni algoritmo, ogni “fenomeno emergente” tipico dei sistemi complessi. Dunque, il lavoro fondamentale da farsi – e che continua a non esser fatto – concerne la necessità di ripensare/reinventare l’educazione, la formazione continua e la stessa ricerca scientifica, ancora segnate da logiche di controllo, separazione e reclusione dei saperi, false dicotomie, riduzionismi e, soprattutto, tuttora vincolate a un mono-disciplinarismo confuso, più o meno strumentalmente, con il (necessario) rigore scientifico e metodologico. Manca ancora la consapevolezza che non sono - e non potranno mai essere -, soltanto i saperi tecnici e gli (iper)specialismi a garantire la co-costruzione di società aperte e realmente democratiche, capaci di andare oltre la moderna illusione della cittadinanza e i processi di simulazione della partecipazione.


Pubblicato il 17 febbraio 2026