Go down

Questo mio testo prova a fornire una mia visione di come grandi personalità della scienza e del pensiero abbiano fornito, ciascuno per proprio conto e nel proprio tempo, un tassello fondamentale alla comprensione dei limiti della narrazione odierna delle moderne tecnologie di IA e fari illuminanti della loro fondamentale inadeguatezza intrinseca a rappresentare la conoscenza umana nella sua complessa interezza.

orizzonte: [...] 3. fig. a. Particolare campo in cui si può spaziare con la mente: fare un giro d’orizzonte, esaminare la situazione nel suo aspetto complessivo (in senso proprio, giro d’o., il «giro di bussola» [v. giro, n. 2 b] compiuto da una nave). b. Cerchia delle nozioni intellettuali e degli interessi spirituali; mentalità, modo di pensare: l’o. delle conoscenze umane si estende di giorno in giorno; letture che aprono allo spirito o. nuovi; mente di vasti o.; persona di o. ristretti. c. Insieme delle prospettive che si aprono all’azione umana o all’evolversi di una situazione: scoperte che aprono nuovi o. alla scienza, alla tecnica; l’o. politico, economico, internazionale, l’aspetto in cui si presenta la situazione politica, economica, internazionale in un certo momento. (da Enc. Treccani)


Cosa lega Ippaso di Metaponto, Einstein, Wittgenstein, Minsky, Goedel e Stiegler nella narrazione critica del fenomeno dell'intelligenza artificiale? Cercherò di dare una mia visione di come queste grandi personalità della scienza e del pensiero abbiano fornito, ciascuno per proprio conto, un tassello fondamentale alla comprensione dei limiti della narrazione odierna delle moderne tecnologie di IA e fari illuminanti della loro fondamentale inadeguatezza intrinseca a rappresentare la conoscenza umana nella sua complessa interezza.

L'ottimismo tecnomimetico

Partiamo da una fenomenologia sociale attualmente piuttosto frequente, che potremmo chiamare ottimismo tecnomimetico. Prima di addentrarci nella descrizione della fenomenologia della tecnomimesi, una piccola nota terminologica: tecnomimetico/tecnomimesi è un termine da me coniato per esprimere in termini generali un concetto che può essere efficacemente (e un po' prosaicamente) reso con il detto:

per il carpentiere il mondo è fatto a chiodi.

Per sua natura l'ottimista tecnomimetico ( o tecnomimo) ridefinisce il fenomeno della conoscenza umana e dell'intelligenza naturale sulla base di ciò che i modelli di IA sono in grado di fare rifuggendo sistematicamente dalla definizione del termine di paragone costituito - appunto - dall'intelligenza naturale. Senza fornire alcun criterio rigoroso e sistematico per misurare il grado di soddisfacimento che gli artefatti automatici propongono a un insieme rappresentativo di compiti della vita reale, il tecnomimo mostra con meraviglia il raggiungimento dell'orizzonte del sapere come ciò che gli algoritmi statistici hanno saputo ricostruire su un hardware specializzato. Il massimo che ci si può aspettare da un tecnomimo è il rifarsi pedissequo alla citazione dei benchmark di riferimento assunti come completi, rappresentativi e definitivi del termine di paragone naturale.

La conseguenza è l'assunzione che la denotazione convenzionale di Intelligenza Artificiale data agli artefatti automatici che tutti conosciamo sia sufficiente a catturare - o addirittura a definire per davvero - il fenomeno biologico osservabile in maniera distribuita sul pianeta che chiamiamo per antonomasia intelligenza e di una delle sue conseguenze persistenti (la conoscenza).

La diffusione a livello planetario dell'ottimismo tecnomimetico è palese: molti osservatori e commentatori, dall’interno del mondo accademico alle startup della Silicon Valley a quelle nostrane, sostengono che il progresso degli ultimi anni nell’intelligenza artificiale abbia ormai colmato il divario tra mente umana e macchina: LLM in grado di sostenere conversazioni coerenti, reti neurali capaci di riconoscere immagini con accuratezza paragonabile a quella di un esperto e sistemi autonomi che vincono tornei di complessità crescente sono spesso citati come prova dell’avvenuta “soluzione del problema” dell’intelligenza naturale.

molti osservatori e commentatori sostengono che il progresso degli ultimi anni nell’intelligenza artificiale abbia ormai colmato il divario tra mente umana e macchina: ma sarà vero?

In questa narrazione, l’equivalenza funzionale tra cervello biologico e reti neurali artificiali diventa una semplice questione di potenza di calcolo e di quantità di dati, e si ritiene che, potenziando hardware, algoritmi e corpora di addestramento, potremo arrivare a un’intelligenza artificiale indistinguibile e persino superiore a quella naturale. Si attribuisce così all’IA una forma di completezza concettuale e operativa: dai compiti di ragionamento logico al “sense-making” creativo, tutto sarebbe ormai alla portata di modelli sempre più grandi e complessi. E' solo una questione di tempo.

L'origine del tecnomimetismo nell'ambito dell'Intelligenza Artificiale ha origini nobili: Alan Turing, nel suo articolo storico "Computing Machinery and Intelligence" del 1950 getta inequivocabilmente le sue basi. Turing fa tuttavia sfoggio di profonda onestà intellettuale quando, già nel primo paragrafo dell'opera, dichiara che non di pensiero naturale nella sua più complessa accezione culturale si trattava ma di un problema "correlato", definito in maniera molto precisa vale a dire quello di decidere se o meno un interlocutore artificiale potesse essere scambiato per uno umano. Egli quindi fu estremamente chiaro nel comunicare che "pensare" (think) era nel trattato un concetto quasi preso a prestito per denotare determinate e ben specifiche capacità di una macchina, non quelle del pensiero umano. Tra le posizioni che Turing immagina contrastare le proprie tesi è di particolare interesse quella attribuita al professor Jefferson (nel paragrafo intitolato Argument from Consciousness) alla quale l'autore pare mostrare maggior interesse. In particolare Turing ribadisce, nel suo controargomento, che indipendentemente dal fatto che si provi o meno la coscienza della macchina, ciò che conta è quanto essa risulto convincente. Egli conclude, inoltre, dichiarando apertamente che la questione sulla natura della coscienza può essere tranquillamente omessa come precondizione al suo discorso. Credo personalmente che Turing non potesse essere maggiormente chiaro nell'affermare che confrontare intelligenza umana e artificiale non fosse minimamente il problema, quanto semmai quello di creare macchine che mostrassero determinati comportamenti in superficie.

Si attribuisce così all’IA una forma di completezza concettuale e operativa: e se fosse una semplificazione, per di più sbagliata?

Dalla iniziale visione di Turing si sono poi dipanate le numerose strade che hanno portato, attraverso la conferenza di Dartmouth del 1956 e successivamente attraverso gli sviluppi tecnologici degli anni '80 alle questioni odierne. In questi 70 anni la posizione di Turing è stata trasformata in vero e proprio manifesto dai tecnomimi, che hanno però completamente travisato il suo originale significato. Essi, oggi, acclamano al superamento del famoso test come prova inconfutabile del raggiungimento delle facoltà umane da parte delle macchine, in aperta distorsione rispetto alle idee originali del matematico inglese.

La moderna visione tecnomimetista si regge su una serie di assunzioni implicite per nulla ipotizzate da Turing: che la performance in compiti specifici equivalga a comprensione profonda, che un’architettura tecnica possa esaurire e rappresentare ogni forma di conoscenza e che non esistano barriere strutturali alla coerenza e alla completezza di rappresentazione della facoltà di pensiero che possono essere espresse da un sistema tecnico limitato - d'altra parte - da vincoli meccanicistici estremamente precisi.

Critica della tecnomimesi

La spinta dell'ottimismo tecnomimetico, proprio in quanto ottimismo, è molto forte e nonostante i dubbi che possono sopraggiungere ai meno ottimisti ( o ai cauti come amo definirmi personalmente) è di gran lunga il punto di vista maggiormente adottato e che guida prepotentemente la costruzione della visione degli sviluppi dell'IA.

Se ciò è vero, allora perché non cedere serenamente alle lusinghe di tale ottimismo?

Personalmente, intravedo almeno i seguenti motivi per non farlo:

  • la tecnomimesi allontana risorse di pensiero dalla comprensione dei meccanismi intrinseci dello sviluppo della conoscenza come fenomeno sociale e culturale - prima ancora che cognitivo e intellettuale - per ridurne la spiegazione a freddi equivalenti funzionali matematico/statistici
  • la tecnomimesi allontana risorse di pensiero da percorsi alternativi allo stato dell'arte tecnico e - ancora più gravemente - non ammette errori: la strada percorsa che ha portato alla definizione e sviluppo degli artefatti automatici è per definizione quella che porta all'emulazione coerente e completa dell'intelligenza naturale e la giustificazione di ciò è o arbitraria (ostentazione del benchmarking) o aleatoria (episodica, caratterizzata spesso da cherry-picking e bias di conferma)
  • la tecnomimesi allontana risorse di pensiero dalla comprensione olistica dei fenomeni della conoscenza separando chirurgicamente e depotenziando il ruolo di ciò che non è spiegabile dai meccanismi che ritiene autoreferenzialmente giusti: le emozioni, le funzioni sensoriali e prassiche non sono vera intelligenza per i tecnomimi dato che quest'ultima è solo ciò che è esprimibile attraverso il linguaggio
  • la tecnomimesi rappresenta la conoscenza come asintoticamente raggiungibile con mezzi puramente tecnici, allontanando risorse di pensiero dall'evoluzione della stessa con strumenti che siano esterni al governo tecnologico

non bisogna cedere serenamente alle lusignhe dell'ottimismo tecnomimetico

La tradizione filosofica come base per l'anti-tecnomimesi

Il dominio dell'ottimismo tecnomimetico è ineluttabile?

Per certi versi si sarebbe portati a rispondere positivamente a questo quesito, soprattutto osservando come le forze economiche in gioco - che per loro natura hanno interessi profondi a supportarlo - siano preponderanti e operino pressioni insostenibili per i singoli pensatori di scenari alternativi.

Tuttavia, se guardiamo alla lunga storia delle rivoluzioni del pensiero, emergono con chiarezza insegnamenti che mettono in discussione l’idea di un’IA “onnicomprensiva”, faro illuminante della tecnomimesi odierna. Esse tracciano, al lettore attento, i contorni di un quadro che si muove su tutt'altro terreno: l'essenza della conoscenza umana non è da ricercarsi negli stati che questa assume nel tempo e che possono essere catturati, compilati e rappresentati in ogni dato momento da artefatti adeguatamente sofisticati, ma dalla capacità dell'intelligenza naturale (intesa come fenomeno collettivo espresso dalla totalità degli umani) di aggiungere elementi indefinibili attraverso gli strumenti tipici di quegli stati.

Da ciò emerge come la conoscenza cresca non solo per raffinamento interno, ma per capacità di ridefinire i suoi confini quando incontra l’inspiegabile, dalla necessità non tanto affinare i dettagli di un modello, quanto di rivoluzionarne le premesse.

Questo non è una pura congettura, ma è rintracciabile richiamando alcune tappe fondamentali dello sviluppo filosofico e scientifico dell'umanità che tracciano un filo conduttore fatto di rivelazione dei limiti e di ridefinizione costante e radicale del quadro di riferimento.

Ippaso: il primo scarto incommensurabile

La non rappresentabilità dei numeri reali attraverso quozienti razionali è forse il primo esempio di incommensurabilità di una nuova nozione nei termini degli strumenti a disposizione in un certo stato della conoscenza. La scoperta attribuita a Ippaso di Metaponto – la radice di 2 come quantità incommensurabile rispetto all’unità pitagorica – rappresenta il punto di rottura originario tra un universo concepito come armonia perfetta di numeri interi e la necessità di riconoscere “altre” grandezze, che sfuggono alla misura razionale tradizionale. Fino a quel momento, i Pitagorici credevano che ogni rapporto tra lunghezze fosse esprimibile come frazione di numeri naturali. L’evidenza geometrica – il lato e la diagonale di un quadrato – mise in luce un vuoto logico: non esistevano due numeri interi il cui rapporto fosse √2. Questa lacuna non poteva essere sanata con nuovi teoremi interni alla teoria pitagorica; rivelava invece un vuoto nella costruzione stessa del sistema. In risposta al paradosso, si dovette accettare una nuova “grammatica” dei numeri, aprendo la strada ai numeri razionali negativi, ai numeri irrazionali e, successivamente, ai numeri reali. Il sistema matematico si arricchì di continuità e densità: non più un mero insieme discreto, ma un continuum con un’infinità di punti intermedi. Il continuum non era definibile con gli strumenti dei numeri razionali.

Einstein: la relatività del tempo e dello spazio

A inizio Novecento, la rivoluzione einsteiniana scardinò la nozione di spazio e tempo assoluti, mostrando che le coordinate con cui misuriamo l’universo sono intrinsecamente legate allo stato di moto dell’osservatore e alla presenza di masse ed energie. A differenza del paradigma newtoniano, dove spazio e tempo erano sfondi fissi e indipendenti Einstein dimostrò invece che il tempo rallenta in prossimità di grandi masse e che la simultaneità di due eventi dipende dal sistema di riferimento scelto (relatività ristretta), infine spiegando come la gravità sia manifestazione della curvatura dello spaziotempo (relatività generale). La trasformazione concettuale che ne derivò non si limitò a correggere qualche formula: cadde l’idea de “i tempi dell’universo” e “lo spazio assoluto”. Si aprì un nuovo orizzonte in cui misurare diventava un atto contestuale, e la metrica stessa dell’universo divenne dinamica e interattiva. In sostanza, Einstein non cercò di “aggiustare” Newton con termini di correzione infinitesimali; propose un paradigma alternativo più ampio, nel quale la meccanica classica rimane un paradigma valido come approssimazione in basso campo gravitazionale e a bassa velocità. Nessuna delle nozioni introdotte da Einstein come conseguenza delle sue scoperte avrebbe potuto essere spiegata con la meccanica di Newton, o in altre parole, è incommensurabile attraverso gli strumenti classici a disposizione nello stato della conoscenza precedente a quello di Einstein.

Wittgenstein: i confini del linguaggio

Nel suo Tractatus logico-philosophicus, Wittgenstein ci guida a riconoscere i limiti intrinseci del linguaggio: ciò che può essere detto deve avere una forma logicamente configurabile; il resto – l’etico, il mistico, l’assurdo – esula dallo spazio della proposizione. La forma logica come costrizione necessaria implica per il filosofo austriaco che ogni proposizione significativa è uno “stato di cose” codificabile in una struttura sintattica: soggetto, predicato, relazione. Se qualcosa non rientra in questa forma non può essere comunicato in forma proposizionale. Come conseguenza, Wittgenstein afferma che “su ciò di cui non si può parlare, si deve tacere” (TLP, 7): non possiamo esprimere la totalità del reale, ma solo quella parte che può essere mappata in una rete di proposizioni. Tutto il resto – le esperienze estetiche, l’etica, il valore – “si mostra” ma non si dice. Questa costruzione introduce una cesura netta tra ciò che il linguaggio può rappresentare in maniera coerente e fattuale e ciò che esula a priori dalla portata del linguaggio ma che - comunque - rientra nell'orizzonte dell'esistenza. Per estensione, un sistema o agente che elabori e restituisca frasi coerenti non “comprende” (nella doppia accezione di questo verbo - quella di "capire" e quella di "essere sovraesteso a") la realtà nel suo complesso. Ciò che non è codificato negli strumenti di produzione dell'agente rimane ineffabile.

Minsky: l'inconoscibilità del pensiero

Nel suo libro La società della mente, Marvin Minsky esplora l'idea che la mente umana non sia un'unità monolitica, ma piuttosto una "società" di agenti cognitivi, ognuno con funzioni specifiche. In particolare, Minsky discute l'idea che se un cervello potesse scrutare se stesso in modo troppo diretto o riflessivo, potrebbe in qualche modo "rompere" i meccanismi che lo fanno funzionare. Lo scienziato statunitense suggerisce che la consapevolezza di sé, se non gestita correttamente, potrebbe interferire con i processi automatici e adattativi del cervello. In altre parole, la mente potrebbe non essere progettata per una riflessione troppo intensa su se stessa, perché questo potrebbe compromettere la fluidità e l'efficienza dei suoi processi cognitivi.

Secondo Minsky, la riflessione costante su sé stessi potrebbe portare a un sovraccarico cognitivo o addirittura interrompere il flusso naturale delle attività mentali e ciò può spiegare perché, ad esempio, le persone non sono sempre consapevoli dei propri processi cognitivi più profondi, ma piuttosto operano in modo relativamente "automatico" finché non sono costrette a riflettere su di essi. Ma nel momento in cui entra in gioco la riflessione - e di conseguenza la verbalizzazione - l'orizzonte della comprensione di questi meccanismi non può che dipendere dalla potenza dello strumento utilizzato, vale a dire il linguaggio, che si rivela quindi inadeguato a comprendere gli stessi meccanismi profondi che lo originano. Seguendo questa logica, che risuona fortemente con l'ide Kantiana di inconoscibilità della realtà in sé, qualunque artefatto basato sulla rappresentazione del fenomeno del linguaggio (sia essa formale o probabilistica) non è in grado di spiegarne il noumeno.

Gödel: l’incompletezza dei sistemi formali

Kurt Gödel, nel 1931, formalizzò con i suoi celebri teoremi l’idea che ogni sistema formale sufficientemente potente da esprimere l’aritmetica non può essere sia completo sia consistente: esistono affermazioni che, pur essendo vere, non sono dimostrabili all’interno del sistema stesso. Gödel costruì con un articolato “codice numerico” un enunciato G che afferma “G non è dimostrabile” tanto che se il sistema provasse G, cadrebbe in contraddizione e se non lo provasse, mostrerebbe la propria incompletezza. In generale quindi Gödel mostra come ogni tentativo di rendere un sistema più potente, aggiungendo nuovi assiomi, produce a sua volta nuovi enunciati indecidibili fino a concludere la non possibilità di esistenza di una teoria “ultima” che sia al contempo inespugnabile e totalizzante. I risultati del matematico austriaco rendono palesemente evidente che qualunque sistema basato su regole meccanicistiche di elaborazione simbolica minimamente complesso è limitato dall'insieme infinito di enunciati “fuori portata” intrinsecamente possibili a causa della sua stessa natura, indipendentemente dal numero di parametri, dati e componenti che si possano aggiungere.

Stiegler: la disintegrazione del sapere

Nel suo lavoro cardinale "La società automatica - 1. L'avvenire del lavoro" Bernard Stiegler distingue tra noesi (pensiero) e noema (contenuto del pensiero), sottolineando che l’automazione progressiva — e in particolare l’intelligenza artificiale — tende a sostituire l’attività noetica umana con processi automatici. Questo significa che l’IA non “comprende” realmente ciò che elabora: opera su dati, pattern e correlazioni, ma non è in grado di produrre senso nel modo in cui lo fa la coscienza umana. In questo senso, la sua capacità di rappresentare la conoscenza è limitata proprio perché le manca la dimensione intenzionale e riflessiva. Per il filosofo francese perpetra da sempre l'esternalizzazione della la propria memoria nei supporti tecnici (scrittura, stampa, memoria di computer). L’IA è una forma estrema di questa esternalizzazione che sembra tuttavia avere la proprietà di disconnettersi dal soggetto che ne faceva uso attivo, sostituendolo. Da qui nasce una conoscenza “senza soggetto”, quindi una rappresentazione che può diventare cieca o disancorata dall’esperienza vissuta. Nella società automatica, la produzione di conoscenza è sempre più demandata a sistemi automatici ma, secondo Stiegler, questa delega può provocare una perdita della saggezza, dell’individuazione psichica e collettiva in quanto i processi di interazione collettiva e di produzione della conoscenza sono quindi codificati in spazi discreti che rappresentano i fenomeni di partenza con potenza intrinsecamente limitata. La conoscenza così generata diventa funzionale ma non più significativa, tecnica ma non sapienziale. Stiegler propone l'intermittenza e il superamento dell'utilizzo del sistema automatico come farmaco per il superamento di queste criticità, ribadendo quindi la differenza sostanziale tra dominio naturale e artificiale.

Umiltà tecnoepistemica come superamento dell'ottimismo tecnomimetico

Attraverso Ippaso, Einstein, Wittgenstein, Minsky, Gödel e Stiegler (e probabilmente molti altri che per ovvi miei limiti avrò trascurato), si dipana un’analogia strutturale: in ogni dominio – aritmetico, fisico, linguistico, formale – il riconoscimento dei limiti non è un punto d’arresto, ma un trampolino per ridefinire i nostri strumenti e allargare gli orizzonti conoscitivi, che - proprio in quanto orizzonti - non sono limitabili asintoticamente e quindi raggiungibili da una rappresentazione meccanicistica, nemmeno se questa diventa via via più complessa.

Il tecnomimetismo nasconde in sé anche un profondo aspetto di autocontraddizione: se è vero - come pare mostrare il percorso filosofico e scientifico richiamato - che la conoscenza procede di stato in stato attraverso salti quantici inspiegabili negli stati di partenza, l'IA non può essere contemporaneamente "sottostato" dello stato complessivo della conoscenza in un certo momento (in quanto stato dell'arte tecnologico in un certo settore e quindi limitato dagli strumenti contingenti) e rappresentante dello stato asintotico del medesimo processo di evoluzione in cui si colloca. Questo richiederebbe infatti che esso sia in grado di prevedere ciò che è incommensurabile/inspiegabile nel suo stato.

La linea filosofica rintracciata quindi è per me l'illuminazione che dissolve le insidie illusorie dell'ottimismo tecnomimetico, proponendo implicitamente un'alternativa che potrebbe essere chiamata umiltà tecnoepistemica. Con questo concetto intendo un recupero della consapevolezza della limitatezza dei mezzi tecnici di rappresentazione tipici di ciascuno stato della conoscenza e quindi l'astensione sistematica dalle spinte di idealizzazione degli stessi come strumenti ultimi per la comprensione dell'intelligenza naturale e di ciò che da essa consegue. Attraverso l'umiltà tecnoepistemica si raggiunge l'equilibrio tra l'utilitarismo sociale dei fenomeni di sviluppo tecnologico (come l'intelligenza artificiale) - serenamente adottabili in quanto potenti strumenti di supporto rappresentativo della conoscenza in ciascun suo stato evolutivo - e la spinta indipendente a comprendere il fenomeno dell'intelligenza naturale nel suo evolversi, svincolando quest'ultima dall'eterno paragone con la sua supposta "controparte" artificiale.

Nell’era dell’IA, questo percorso di pensiero invita a pensare e progettare sistemi automatici non come “serbatoi infiniti e asintoticamente definitivi di verità”, ma come tessuti collaborativi, in cui umani e macchine interagiscono, si correggono reciprocamente e condividono il peso ineluttabile dell’incompletezza di ciascuno stato evolutivo della conoscenza.

più che lasciarci conquistare dall'ottimismo tecnomimetico servirebbe a tutti adottare una sana umiltà tecnoepistemica

StultiferaBiblio

Pubblicato il 05 maggio 2025

Alberto Messina

Alberto Messina / AI Manager & Head of R&I Unit at Rai - Radiotelevisione Italiana

alberto.messina.rai@gmail.com