C’è un momento, nell’interazione con un sistema di intelligenza artificiale generativa, in cui l’esperienza assume una forma quasi seducente: il pensiero sembra disporsi da solo, le parole si ordinano con una compostezza che raramente riusciamo a mantenere quando siamo soli davanti alla pagina, le connessioni emergono con una rapidità che assomiglia alla chiarezza. Non è soltanto questione di velocità ma la percezione di un attrito che si riduce, di una fatica che si alleggerisce, come se una parte del lavoro invisibile del pensare fosse stata assorbita altrove.
Proprio in questo alleggerimento si apre una fenditura che raramente attraversiamo fino in fondo, perché se il testo prende forma, se l’argomento si articola con coerenza, se la risposta appare plausibile e ben composta, diventa inevitabile chiedersi dove si collochi l’atto del pensare e se esso resti un gesto che mi appartiene o sia ormai distribuito tra me e un sistema che produce configurazioni linguistiche con una fluidità priva di esitazione.
L’epoca dell’AI generativa non introduce soltanto nuove macchine ma rende visibile una separazione che per secoli avevamo mantenuto implicita, quella tra elaborazione e deliberazione, dal momento che abbiamo identificato il pensiero con la sua espressione discorsiva come se scrivere fosse già pensare e argomentare fosse già assumere una posizione. Ora ci troviamo davanti a dispositivi capaci di generare parole senza attraversare esperienza, di costruire ipotesi senza esporsi alle loro conseguenze, e la questione non riguarda la loro sofisticazione tecnica quanto la loro mancanza di esposizione.
La macchina può articolare alternative, suggerire scenari, combinare possibilità in modo statisticamente raHinato e persino simulare conflitti argomentativi producendo sintesi eleganti, ma non conosce l’esitazione né attraversa il tempo del dubbio in cui una scelta pesa prima ancora di essere compiuta, perché non è toccata dall’irreversibilità di una decisione che esclude altre vie e ne assume il costo.
Ciò che inquieta non è la capacità della IA di generare testo ma la nostra inclinazione a scambiare la fluidità per profondità, la plausibilità per maturità,
Ciò che inquieta non è la sua capacità di generare testo ma la nostra inclinazione a scambiare la fluidità per profondità, la plausibilità per maturità, l’eHicienza per comprensione, dal momento che la delega non avviene come gesto drammatico e non c’è un momento in cui diciamo esplicitamente di rinunciare a pensare, bensì una progressiva abitudine che si deposita nella comodità dell’output e nell’idea che ciò che è ben formulato sia già stato realmente attraversato.
Pensare, nella sua dimensione propriamente umana, implica una frizione che non può essere rimossa senza perdita, perché comporta il conflitto tra alternative che resistono, l’incertezza che non si lascia dissolvere immediatamente e il peso di una decisione che modifica chi la prende; se l’elaborazione può essere automatizzata, la deliberazione resta un atto situato ed
esposto non per una presunta superiorità ontologica dell’umano ma per la sua intrinseca responsabilità.
Viviamo in un ambiente sempre più orientato all’ottimizzazione, popolato da algoritmi che suggeriscono e classificano e da sistemi che analizzano dati per ridurre margini di errore e massimizzare risultati, ma la decisione non coincide con la massimizzazione perché decidere significa assumere una direzione in un campo di incertezza accettando che ogni scelta sia anche rinuncia e che questa rinuncia non rappresenti un difetto da correggere bensì la soglia attraverso cui il pensiero diventa azione.
Quando la scelta appare come semplice output di un processo tecnico e la raccomandazione precede la riflessione, non assistiamo alla scomparsa dell’umano ma a un suo progressivo alleggerimento, nel quale la responsabilità non viene abolita ma diluita e il rischio non eliminato bensì redistribuito in modo tale da non essere più riconoscibile.
In questo scenario parlare di Umanesimo Digitale non può ridursi a un richiamo retorico al “mettere l’uomo al centro”, poiché non si tratta di restaurare una centralità simbolica ma di riconoscere che stiamo entrando in un ambiente in cui le macchine ampliano enormemente la nostra capacità di generare possibilità mentre la decisione resta il luogo in cui quelle possibilità vengono selezionate e trasformate in realtà.
La co-evoluzione non è fusione indistinta ma trasformazione reciproca che mantiene la diHerenza dentro la relazione, nella quale l’AI modifica il nostro modo di lavorare, apprendere e scrivere mentre noi la modifichiamo attraverso progettazione, regolazione e scelte culturali, senza che questa trasformazione debba scivolare in una confusione tra produzione e deliberazione che finirebbe per sbilanciare la relazione.
La metafora della navigazione non è casuale perché salpare implica lasciare una riva conosciuta e accettare l’incertezza del mare, riconoscendo che la nave può essere potente e suggerire rotte ma che la direzione resta un’assunzione di responsabilità, e che confondere lo strumento con la decisione significherebbe trasformare la co-evoluzione in delega silenziosa.
Salpare umani nell’oceano delle macchine significa accettare la relazione senza dissolvere la soglia decisionale, abitare l’eHicienza senza scambiare la generazione di possibilità per pensiero compiuto e continuare a decidere assumendone il peso anche quando le macchine scrivono con noi.