Go down

Per un Umanesimo Digitale come co-evoluzione.
La plausibilità non implica esposizione, e senza esposizione non c’è responsabilità.
La produzione può essere automatizzata; la deliberazione implica perdita, direzione, irreversibilità.
Delegare non significa solo trasferire un compito: significa spostare una soglia.

L’AI non sta sostituendo il pensiero umano, lo sta alleggerendo e proprio in questo alleggerimento si gioca la partita decisiva.
Un saggio sull’illusione del pensiero delegato, sulla soglia non delegabile della decisione e sulla necessità di un Umanesimo Digitale capace di abitare l’oceano delle macchine senza perdere il peso del timone.


L’illusione del pensiero delegato

Se c'è una frase prende forma senza incontrare resistenza e se non inciampi almeno una volta nella tua stessa esitazione, diventa legittimo chiedersi se non ci sia qualcuno che sta pensando al posto tuo, o meglio ma dove sia finito il 'peso responsabile' che prima accompagnava quel gesto.

L’AI generativa scrive, argomenta, sintetizza, simula stili e costruisce ipotesi con una coerenza che spesso supera la nostra; ma proprio questa potenza linguistica rende la tentazione pragmatica prima ancora che ideologica, perché se la macchina può produrre risultati migliori e più veloci la domanda che si insinua è perché dovremmo continuare a sostenere lo sforzo.

Luciano Floridi descrive la nostra condizione come vita nell’infosfera, ma un ambiente non è uno sfondo neutro poiché esso plasma le modalità della percezione e ridefinisce i gesti cognitivi che lo abitano. Se viviamo dentro infrastrutture probabilistiche che anticipano formulazioni e normalizzano plausibilità, allora il pensiero non viene sostituito ma riconfigurato, e la soglia tra elaborazione e deliberazione non viene cancellata bensì resa meno percepibile.

Pertanto la distinzione decisiva non riguarda però la qualità dell’output ma la natura stessa dell’atto.

Scrivere non coincide con pensare, così come calcolare non equivale a deliberare e predire non significa assumere responsabilità, poiché la macchina genera configurazioni linguistiche plausibili sulla base di correlazioni statistiche, mentre la plausibilità non implica alcuna esposizione né rischio né irreversibilità.

Bernard Stiegler parlava di esternalizzazione delle facoltà cognitive; oggi però non esternalizziamo soltanto memoria o calcolo ma la forma stessa del discorso, e la forma precede il giudizio, cosicché quando il linguaggio arriva già strutturato il conflitto interno può essere aggirato senza che ce ne rendiamo conto.

Come scrivevo nel mio primo contributo su Stutifera Navis, non perdiamo decisioni per mancanza di intelligenza ma perché, sotto pressione, diventano automatiche, o meglio, ciò che Kahneman descriveva come distinzione tra pensiero rapido e deliberativo che rischia di confondersi quando l’AI accelera il primo facendolo apparire come il secondo, producendo errori eleganti.

La delega raramente si presenta come rottura improvvisa ma si manifesta piuttosto come uno scivolamento progressivo, che inizia con l’efficienza, si consolida nell’abitudine e si stabilizza in una sorta di dominio invisibile, fino a rendere la fluidità un sostituto del confronto.

Ridefinire il pensare

Per secoli abbiamo identificato il pensiero con la parola pubblica, con l’argomentazione che si espone e si lascia contestare mentre oggi l’AI generativa produce parole senza attraversare l’esperienza che tradizionalmente le rendeva gravide di responsabilità, non perché in sé sia superficiale ma perché banalmente non è esposta.

Pensare, nella dimensione umana, implica tensione tra alternative non immediatamente risolvibili, tempo dell’esitazione e consapevolezza delle conseguenze future, e Hannah Arendt ci ricorda che l’azione è sempre esposizione mentre Hans Jonas insiste sul principio responsabilità verso ciò che ancora non esiste ma dipenderà dalle nostre scelte.

La macchina può generare scenari e proporre alternative, ma non può essere toccata dal fallimento né portare il peso dell’irreversibilità, e in questo caso la differenza tra produzione e deliberazione diventa sostanziale, poiché la prima può essere automatizzata mentre la seconda implica l’assunzione di una perdita e di una direzione. E una macchina, ad oggi, il concetto di perdita - ancora - non lo conosce.

Quindi, se la generazione di possibilità cresce esponenzialmente mentre la soglia della decisione si alleggerisce, si crea una sproporzione che altera l’equilibrio tra potenza tecnica e responsabilità umana.

La decisione come soglia non delegabile

Viviamo in un’epoca in cui l’ottimizzazione tende a diventare metrica universale, e algoritmi suggeriscono percorsi, consumi, priorità, offrendo calcoli di probabilità e stime di rischio che promettono massimizzazione dei risultati; tuttavia la decisione non coincide con la massimizzazione, perché non si esaurisce nella scelta statisticamente più vantaggiosa ma comporta l’assunzione di conseguenze in un campo di incertezze.

Hartmut Rosa ha descritto la modernità come accelerazione permanente e Byung-Chul Han ha mostrato come la logica della prestazione trasformi la libertà in auto-ottimizzazione, e l’AI si inserisce in questa dinamica amplificando la fluidità e la rapidità, ma senza poter sostituire l’interpellazione morale che accompagna ogni decisione autenticamente umana. 

Quando deleghiamo la decisione non trasferiamo soltanto un compito operativo ma una soglia simbolica e pratica, e se quella soglia diventa invisibile la responsabilità non scompare ma si disperde nella normalità dell’automatismo, producendo una rimozione sottile del 'peso del decidere' che alleggerisce senza emancipare ed è proprio in questa tensione che si misura ciò che, ancora, resta propriamente umano.

Umanesimo Digitale come co-evoluzione

Di fronte all’AI si delineano reazioni opposte che condividono la stessa semplificazione, perché la nostalgia che difende l’umano contro la macchina e l’entusiasmo che auspica la fusione transumanista trascurano entrambe la natura relazionale della trasformazione in atto. Questo, a mio avviso, il rischio maggiore che l'umanità sta correndo.

Yuk Hui ricorda che la tecnica è sempre situata culturalmente, e ciò implica che l’AI non sia né nemico né destino ma ambiente, un oceano nel quale stiamo entrando senza poter tornare alla riva precedente.

La co-evoluzione non è fusione indistinta ma trasformazione reciproca che mantiene la differenza funzionale tra generazione di possibilità e assunzione di decisioni, e richiede una architettura di meta-regolazione capace di rendere le scelte ricostruibili, contestabili e, se necessario, arrestabili, attraverso la visibilità delle assunzioni, degli indicatori sentinella e delle soglie di revisione.

Audit e trasparenza sono condizioni necessarie ma insufficienti se non sostengono questa disciplina, perché in loro assenza l’efficienza rischia di trasformarsi in criterio implicito e l’automatismo in norma silenziosa; tradotto ben vengano gli aspetti procedurali, etici e legali ma da soli non risolveranno il problema di una AI che amplifica ciò che incontra e può rafforzare tanto la lucidità quanto la superficialità, rendendo la responsabilità non più leggera ma più concentrata e visibile.

Salpare

La metafora della navigazione non ha nulla di romantico, perché salpare significa lasciare una riva stabile e accettare l’incertezza del mare, affidandosi a una nave potente senza confondere la nave con la rotta.

Oggi stiamo, inconsapevolmente, salpando con l’AI; essa può accelerare, orientare e suggerire traiettorie, ma non può assumere il destino né portare il peso delle conseguenze che derivano da una rotta scelta, e salpare umani nell’oceano delle macchine significa abitare questa instabilità senza dissolverla, mantenendo la differenza tra potenza tecnica e decisione responsabile.

In un tempo in cui tutto tende a funzionare con fluidità crescente, il gesto più umano potrebbe consistere non nell’aumentare ulteriormente la produzione, ma nel continuare a sentire il peso del timone e nell’assumere consapevolmente la direzione, sentendo scivolare il mare sotto lo scafo, anche quando le macchine scrivono con noi.


Pubblicato il 22 febbraio 2026

Flavio Tonelli

Flavio Tonelli / Professore di Ingegneria Industriale - Presidente Liguria Società Italiana di Intelligence - Faculty Member SPES Academy