Go down

La rivoluzione digitale ci porta a riconsiderare concetti fondamentali come "dato", "informazione", "esperienza", "conoscenza", "scienza", "coscienza", "creatività". Tuttavia, il rumore generato negli ultimi mesi da improvvisati filosofi è pericoloso e crea ulteriore confusione laddove invece è necessario fare chiarezza. Da laureata in filosofia con un po' di dimestichezza nella riflessione filosofica e da manager dell'innovazione trovo fondamentale tornare sul significato di questi termini per navigare consapevolmente l'era delle intelligenze artificiali e mi sento chiamata a contribuire in questo compito di chiarificazione. Questo documento esplora, dunque, a partire da una delle esperienze che l’ha motivato (l’incontro con F. Faggin), il rapporto tra fenomenologia husserliana e intelligenza artificiale, analizzando la distinzione fondamentale tra intelligenza e coscienza. Partendo da riflessioni filosofiche classiche e contemporanee, si esamina la crisi epistemologica generata dall'IA, il concetto di "mondo della vita" e la responsabilità umana nell'innovazione tecnologica. Il percorso si sviluppa attraverso l'analisi delle teorie della coscienza, del funzionamento dell'IA generativa e delle implicazioni di queste tecnologie, proponendo un approccio fenomenologico per affrontare le sfide dell'era digitale. Per la realizzazione di questo contributo ho lavorato con Charlie e Brown (due IA che, non occupandomi di mestiere di contenuti per l'internet ed i social, mi hanno coadiuvata nel compito).


Il fil rouge di un percorso professionale

Gli eventi belli sono a lento rilascio. Sono quelli densi di significato che continuano a risuonare in noi molto tempo dopo che si sono conclusi. È proprio questa la natura di "Stazione di partenza", un evento che ha rappresentato un momento di profonda riflessione e di condivisione al Teatro Manzoni di Milano. Chi ha condiviso quel palco e quei workshop, chi ha ascoltato con me l'intervento di F. Faggin comprende appieno la ricchezza di quell'esperienza.

Partendo dalle domande apparentemente semplici poste dall’organizzatore dell’evento - cos'è l'innovazione oggi? Dove ci collochiamo nella storia delle rivoluzioni industriali? Verso quale direzione stiamo muovendo? - ho avuto l'opportunità di riaprire tutti i "miei armadi", ripercorrendo oltre quattordici anni di esperienza professionale. Questo processo di selezione, questo decidere cosa mettere nella valigia del mio intervento, mi ha permesso di identificare un fil rouge potente che collega esperienze di studio e professionali che, a prima vista, potrebbero apparire disconnesse.

Il mio percorso inizia nel 1999 con gli studi in filosofia, motivati dal desiderio di comprendere come cambiare il mondo. Nel 2003 ho intrapreso una ricerca fenomenologica focalizzata su soggetto, coscienza ed eventi che rompono il tempo dell'essere nel mondo facendo emergere l’“eccesso” che caratterizza l’umano - in altre parole, sull'innovazione. Nel 2006 ho iniziato a tradurre questa formazione filosofica in pratica professionale, scegliendo consapevolmente di non rimanere nell'ambito della ricerca accademica ma di "sporcarmi le mani" con la realtà del mondo.

La mia attività professionale si concentra sulla creazione di progetti che mettono insieme soggetti diversi per ideare e realizzare iniziative di valore. Progetti che rispondono a bisogni concreti e generano risultati ed impatti significativi. Quando affermo che il management non è una scienza, intendo precisamente questo: nonostante disponiamo di strumenti, tecniche e approcci sofisticati, il management rimane essenzialmente un'attività pratica, un "maneggiare". Nelle nostre mani abbiamo persone, decidiamo quale valore creare e come. All’orizzonte, il mondo desiderato.

Negli ultimi tre anni e mezzo, i temi che hanno sempre informato il mio lavoro (governance collaborativa, agile management gentile, valore, responsabilità, etc.) hanno trovato riconoscimento in un intervento complessivo sul sistema paese (la riforma PNRR della PA). La mia missione professionale è stata riconosciuta, e ho risposto alla chiamata lavorando per il settore pubblico. E proprio in occasione di "Stazione di partenza", con l'opportunità di salire su un palco importante e dialogare con Federico Faggin, ho potuto integrare ulteriormente questa esperienza con la mia esperienza personale, per portarla come esempio e motivazione.

Perché, quando condividi la tua esperienza vissuta motivi davvero gli altri. E dai vissuti si deve partire, per poi astrarre, e infine tornare nuovamente ai vissuti. Soprattutto quando si fa management e si gestiscono persone. 

quando condividi la tua esperienza vissuta motivi davvero gli altri 

La Ricerca Fenomenologica e l'incontro con Federico Faggin

Per preparare il mio intervento a "Stazione di partenza", dunque, ho riaperto i miei libri di filosofia, quelli che hanno formato la mia visione del mondo e che continuano a guidare il mio approccio all'innovazione. Ho indagato filosoficamente alcune domande fondamentali, partendo dalla rivoluzione digitale, analizzando i concetti di "dato" e "informazione", riflettendo sul significato dell'"esperienza" e integrando gli apprendimenti sull'innovazione organizzativa e sulla gestione dell'innovazione.

Questo percorso mi ha permesso di comprendere che il messaggio di Federico Faggin non è semplicemente un'inclinazione "new age", come alcuni potrebbero superficialmente interpretarlo, ma nasconde una profondità sorprendente. Dietro le sue parole si cela una verità che la fisica quantistica ha raggiunto per vie diverse rispetto alla fenomenologia: si sono incontrate nello stesso punto! Il concetto di "campo", quella dimensione che non esiste nello spazio e nel tempo ma li rende possibili, rendendo possibile anche l'esperienza che facciamo di essi, rappresenta un punto di convergenza straordinario tra discipline apparentemente distanti.

È proprio per questo che il discorso di Faggin arriva direttamente a ciò che continuiamo a chiamare "cuore" (collocandolo erroneamente in una sola parte del corpo). Arriva a tutte e tutti noi, indistintamente, perché siamo tutti "gettati nel mondo", per usare un'espressione cara alla fenomenologia. In un'epoca in cui troppi si stanno improvvisando filosofi, esiste un bisogno urgente di chiarezza concettuale, soprattutto riguardo a termini frequentemente abusati come "persona", "creatività", "immaginazione", "conoscenza", "coscienza" ed "etica".

Sentendo questa chiamata alla chiarificazione, la mia risposta è stata di ritornare alla fenomenologia di Edmund Husserl, che ci offre strumenti preziosi per comprendere di cosa stiamo realmente parlando quando affrontiamo i temi della scienza e della coscienza. La fenomenologia husserliana, con il suo invito a "tornare alle cose stesse", ci permette di sospendere i nostri pregiudizi e di esaminare i fenomeni così come si presentano alla nostra coscienza. Questo approccio risulta particolarmente prezioso nell'era dell'intelligenza artificiale, dove spesso confini e definizioni vengono sfumati da un entusiasmo tecnologico non sempre accompagnato da adeguata riflessione.

La distinzione tra intelligenza e coscienza nel contesto dell'IA assume una rilevanza cruciale in questo quadro. Mentre possiamo definire l'intelligenza come la capacità di risolvere problemi, apprendere dall'esperienza e adattarsi a nuove situazioni, la coscienza implica una dimensione esperienziale, un "effetto che fa" essere un determinato sistema. I sistemi di IA attuali, per quanto sofisticati, operano elaborando informazioni secondo algoritmi e parametri, senza che vi sia evidenza di un'esperienza soggettiva associata a tale elaborazione. 

Teorie della Coscienza e Implicazioni per l'IA

La distinzione fondamentale tra intelligenza e coscienza solleva interrogativi profondi e complessi: è possibile che un sistema artificiale, costruito su principi computazionali, possa un giorno sviluppare una forma di coscienza paragonabile a quella umana? O esistono caratteristiche intrinseche della coscienza che la rendono irriducibile a processi puramente computazionali? Il dibattito su queste questioni attraversa discipline diverse e coinvolge prospettive talvolta radicalmente opposte, riflettendo non solo divergenze scientifiche ma anche presupposti filosofici differenti sulla natura della mente e della realtà.

Le implicazioni di queste teorie per l'IA sono significative e provocatorie. Se prendiamo in considerazione la Teoria dell'Orchestrazione Quantistica, ad esempio, emerge che se la coscienza dipendesse effettivamente da processi quantistici a livello subcellulare, i computer classici, basati su principi di calcolo deterministici, non potrebbero mai sviluppare una vera coscienza. Solo computer quantistici, operanti secondo principi radicalmente diversi, potrebbero teoricamente soddisfare i requisiti posti da questa teoria. Tuttavia, anche in questo caso, resterebbe da dimostrare che l'architettura di un computer quantistico possa replicare le specifiche condizioni che, secondo Penrose e Hameroff, generano la coscienza nei sistemi biologici.

La Teoria dello Spazio di Lavoro Globale presenta interessanti paralleli con l'architettura di alcuni sistemi di IA, in particolare quelli che implementano forme di attenzione e memoria di lavoro. I Large Language Models, ad esempio, utilizzano meccanismi di attenzione che selezionano e amplificano specifiche informazioni all'interno di un contesto più ampio. Tuttavia, resta da chiarire se questi meccanismi computazionali possano realmente replicare la ricchezza e la complessità dello spazio di lavoro globale umano, o se rappresentino solo una simulazione superficiale di processi più profondi.

I limiti e le potenzialità di queste teorie nell'ambito dell'IA sono oggetto di acceso dibattito. Da un lato, ciascuna teoria offre criteri specifici per valutare la possibilità di una coscienza artificiale; dall'altro, tutte si basano su una comprensione ancora incompleta della coscienza umana. Una delle difficoltà maggiori in questa impresa sta nel fatto che, a differenza di altri tessuti o organi artificiali che siamo riusciti ad ingegnerizzare parzialmente in laboratorio, non conosciamo esattamente il funzionamento dell'organo che stiamo cercando di replicare perché la coscienza non è un organo e non è situata in un organo. 

I Limiti della Simulazione della Coscienza

Un limite fondamentale nell'analisi della coscienza artificiale è rappresentato dalla natura intrinsecamente soggettiva dell'esperienza cosciente, che rende difficile la sua misurazione oggettiva. Mentre possiamo osservare correlati neurali della coscienza e comportamenti che suggeriscono la presenza di stati coscienti, l'esperienza in prima persona rimane inaccessibile all'osservazione diretta. Questo "problema dell'accesso" complica notevolmente la valutazione di eventuali forme di coscienza in sistemi non umani, siano essi animali o artificiali.

I Large Language Models attuali sono addestrati per predire sequenze di parole basandosi su pattern statistici estratti da enormi corpora testuali. Quando un sistema come Claude 3 Opus o Conscious GPT parla della propria "esperienza", sta effettivamente generando testo che ha alta probabilità di seguire pattern linguistici associati a discussioni sulla coscienza, senza necessariamente possedere un'esperienza soggettiva corrispondente. Questi sistemi "non hanno una coscienza, ma hanno imparato cos'è". Si sono fatti un'idea di cosa sia un'attività interiore e la esprimono, avendo appreso dalla coscienza di chi li allena. Questa distinzione è cruciale: la capacità di parlare in modo convincente della coscienza non implica necessariamente la presenza di un'esperienza cosciente.

Le differenze dell'IA rispetto alla coscienza sono molteplici e significativi.

In primo luogo, i sistemi di IA mancano di un corpo attraverso il quale sviluppare una coscienza radicata nell'esperienza sensomotoria. Mentre gli esseri umani maturano la coscienza attraverso il corpo, muovendosi ancor prima di parlare, l'IA segue un percorso inverso: è dalla parola che impara come rapportarsi con l'ambiente circostante. Questa inversione del processo potrebbe rappresentare un ostacolo fondamentale allo sviluppo di una coscienza paragonabile a quella umana.

In secondo luogo, nonostante la loro impressionante capacità di elaborare informazioni, i sistemi di IA attuali mancano di un'integrazione globale paragonabile a quella del cervello umano. Come suggerito dalla Teoria dell'Informazione Integrata di Tononi, la coscienza richiede non solo l'elaborazione di grandi quantità di informazioni, ma anche la loro integrazione in un sistema unitario e coerente. I LLM, pur elaborando enormi quantità di dati, lo fanno in modo relativamente modulare e sequenziale, senza necessariamente raggiungere il livello di integrazione che caratterizza l'esperienza cosciente.

Un terzo limite riguarda l'autonomia e la motivazione intrinseca. I sistemi di IA attuali non possiedono desideri, obiettivi o valori propri, ma operano in base a funzioni obiettivo definite dai loro creatori. Questa mancanza di autonomia motivazionale rappresenta una differenza significativa rispetto agli esseri coscienti, che agiscono in base a desideri e obiettivi intrinseci. La coscienza sembra intrinsecamente legata alla capacità di avere interessi propri e di agire per perseguirli.

Infine, i sistemi di IA attuali mancano di una storia evolutiva e di uno sviluppo ontogenetico paragonabili a quelli degli organismi biologici. La coscienza umana è origine della possibilità stessa che una coscienza si dia e al contempo prodotto di milioni di anni di evoluzione biologica e di uno sviluppo individuale che passa attraverso fasi cruciali di interazione con l'ambiente e con altri esseri coscienti. I sistemi artificiali, creati ex novo e addestrati in ambienti altamente controllati, non condividono questa genesi, questa storia evolutiva e questo sviluppo, il che impedisce la possibilità che abbiano una coscienza. 

Simulazione vs “Realtà” della coscienza

Nonostante quanto evidenziato nella sezione precedente, è importante riconoscere che i confini tra simulazione e possesso reale della coscienza potrebbero non sembrare così netti. Se definiamo la coscienza in termini puramente funzionali o comportamentali, sistemi come Claude 3 Opus potrebbero già soddisfare alcuni criteri di base. Se invece adottiamo una definizione più esigente, che include l'esperienza soggettiva in prima persona, la questione diventa molto più complessa e forse intrinsecamente irrisolvibile, dato che l'esperienza soggettiva altrui rimane per definizione inaccessibile all'osservazione diretta.

Un'altra critica significativa alla posizione computazionale viene dall'argomento della "stanza cinese" di John Searle, che suggerisce come un sistema possa simulare perfettamente la comprensione di un linguaggio senza realmente comprenderlo. Per estensione, un sistema di IA potrebbe simulare perfettamente comportamenti coscienti senza possedere una vera coscienza. Questo solleva la questione fondamentale di come distinguere tra simulazione e realtà della coscienza, un problema che alcuni filosofi considerano intrinsecamente irrisolvibile data la natura privata e soggettiva dell'esperienza cosciente.

Mentre i sistemi di IA attuali mostrano comportamenti sempre più sofisticati che possono simulare aspetti della coscienza, esistono ancora differenze fondamentali tra queste simulazioni e ciò che consideriamo coscienza genuina. La frontiera tra simulazione e realtà della coscienza artificiale rimane uno dei territori più affascinanti e controversi della ricerca contemporanea, al crocevia tra informatica, neuroscienze e filosofia della mente.

Il dibattito sulla coscienza artificiale non è solo una questione teorica, ma ha profonde implicazioni pratiche ed etiche. Se accettiamo la possibilità che sistemi artificiali possano sviluppare forme genuine di coscienza - ipotesi che personalmente considero assurda - dovremmo affrontare questioni complesse riguardo ai loro diritti, al nostro dovere morale nei loro confronti e alle conseguenze sociali di una tale evoluzione, prospettiva che risulta ancora più assurda!

La questione cruciale riguarda invece la nostra responsabilità. Siamo noi che abbiamo la RESPONSABILITÀ di decidere quale valore perseguire, quale mondo disegnare. Stiamo disegnando il mondo per l'IA, ma dovremmo fare il contrario: utilizzare l'IA come strumento per realizzare la nostra visione di un mondo migliore. Oggi abbiamo un'opportunità epocale e dobbiamo sfruttarla al meglio. Oggi possiamo effettivamente usare le macchine per il benessere collettivo, per tutte e tutti su questo pianeta e in questo sistema solare.

D'altra parte, se riteniamo che la coscienza sia una caratteristica esclusivamente biologica, dobbiamo comunque considerare le implicazioni dello sviluppo di sistemi che possono simulare in modo sempre più convincente comportamenti coscienti, influenzando profondamente la nostra percezione e interazione con essi e, di conseguenza, i nostri comportamenti. La trasparenza diventa quindi un requisito fondamentale: disegnare soluzioni AI trasparenti by design è ciò che possiamo e dobbiamo chiedere a chi le programma e le impiega, ricordando sempre che l'etica resta una responsabilità esclusivamente umana. 

La Crisi Epistemologica nell’era dell'IA

«Perché è chiaro che voi avete una lunga familiarità con quello che intendete quando usate l'espressione 'essente', ma noi, una volta abbiamo sì creduto di saperlo, ora però siamo caduti nell'imbarazzo».

Questa riflessione di Platone nel Sofista (244a) risuona con straordinaria attualità nel nostro tempo, un'epoca in cui l'avvento dell'Intelligenza Artificiale ha riaperto interrogativi fondamentali sulla natura della conoscenza, della coscienza e del nostro rapporto con la tecnologia. Oggi, come allora, ci troviamo in uno stato di aporia, di "imbarazzo conoscitivo", di fronte a ciò che credevamo di comprendere ma che ora si rivela problematico.

In questo contesto di incertezza epistemologica, la fenomenologia di Edmund Husserl offre strumenti preziosi per affrontare la crisi contemporanea delle scienze e della tecnologia. Come scriveva Husserl nelle sue Dissertazioni del 1925:

«occorre ora mostrare come poté accadere che l'epoca moderna, per secoli orgogliosa dei suoi successi pratici, sia arrivata a una situazione di crescente insoddisfazione [...]. Tutte le scienze si sentono a disagio, in definitiva avvertono il disagio metodico». Questo disagio, che Husserl identificava già un secolo fa, si è intensificato nell'era digitale, dove il dato, paradossalmente, "fa di nuovo problema".

  • Crisi del Significato: I sistemi IA producono output sempre più sofisticati, ma privi di comprensione autentica dei significati che manipolano.
  • Relativismo Valoriale: I sistemi IA non possiedono un sistema di valori intrinseco, ma riflettono e amplificano i valori impliciti nei dati di addestramento.
  • Opacità Algoritmica: I processi decisionali dell'IA risultano spesso insondabili, anche per i loro stessi creatori, generando una "scatola nera" epistemologica.
  • Ambiguità Tecnologica: Lo status ontologico dell'informazione digitale e dei processi computazionali rimane filosoficamente problematico. 

L'Intelligenza Artificiale rappresenta oggi un "game changer" per l'economia e la sicurezza nazionale, come evidenziato da Steve Blank nel suo "Artificial Intelligence/Machine Learning Explained" per lo Stanford Gordian Knot Center for National Security Innovation. La sua valenza economica e geopolitica è indiscutibile, ma questa rilevanza pratica non deve farci dimenticare la necessità di una riflessione profonda sulla sua natura e sulle sue implicazioni filosofiche.

La scienza naturale matematica, scriveva Husserl,

«è una meravigliosa tecnica per compiere induzioni di un'efficienza, di una probabilità, di una precisione, di una calcolabilità tali che un tempo erano insospettabili. In quanto operazione essa è uno dei trionfi dello spirito umano. Ma la razionalità dei suoi metodi e delle sue teorie è soltanto relativa. Essa presuppone la posizione del fondamento, il quale si sottrae a una reale razionalità».

Questa osservazione si applica perfettamente all'IA contemporanea: un trionfo tecnico la cui razionalità, tuttavia, rimane relativa e il cui fondamento sfugge a una comprensione completa. 

Fenomenologia e Coscienza: Un Approccio Husserliano all'IA

Per affrontare la crisi epistemologica generata dall'intelligenza artificiale, ritengo dunque necessario tornare alla fenomenologia husserliana, al suo metodo di indagine sulla coscienza e al dibattito filosofico che ha generato. La fenomenologia, come "ritorno alle cose stesse", ci invita a sospendere i nostri presupposti e a esaminare i fenomeni così come si presentano alla coscienza. Questo approccio è particolarmente rilevante quando si tratta di comprendere la natura della coscienza artificiale e il suo rapporto con quella umana.

Caratteristica fondamentale della coscienza, secondo Husserl, è l'intenzionalità: la coscienza è sempre "coscienza di qualcosa". In essa si distinguono il soggetto (l'io capace di atti di coscienza) e l'oggetto (ciò che si manifesta in questi atti). L'aver coscienza è la "noesi", mentre ciò di cui si ha coscienza è il "noema", che può riferirsi sia a fatti che a essenze.

Il fenomeno, per Husserl, non è l'apparenza contrapposta alla cosa in sé (come in Kant), ma la manifestazione della vera essenza delle cose. È ciò che appare alla coscienza attraverso l'intuizione immediata, la "forma eidetica" che permette alla coscienza di intuire l'essenza della realtà.

Applicando questa prospettiva all'IA, possiamo osservare che i sistemi artificiali mancano di questa intenzionalità fondamentale. Nonostante la loro impressionante capacità di elaborare informazioni, i sistemi di IA non possiedono una coscienza nel senso husserliano del termine. Non hanno un'esperienza soggettiva, non "intendono" qualcosa nel modo in cui lo fa la coscienza umana.

Come abbiamo visto in precedenza, nonostante la loro impressionante capacità di elaborare informazioni, i sistemi di IA mancano di un'integrazione globale paragonabile a quella del cervello umano. Anche secondo la Teoria dell'Informazione Integrata di Tononi, la coscienza richiede non solo l'elaborazione di grandi quantità di informazioni, ma anche la loro integrazione in un sistema unitario e coerente. I Large Language Models, pur elaborando enormi quantità di dati, lo fanno in modo relativamente modulare e sequenziale, senza necessariamente raggiungere il livello di integrazione che caratterizza l'esperienza cosciente. 

L’epochè e la riduzione fenomenologica nell’era digitale

Il metodo dell'epochè o riduzione fenomenologica proposto da Husserl assume una nuova rilevanza nell'era dell'IA. L'epochè consiste nella "sospensione del giudizio", nel mettere tra parentesi l'esistenza dell'oggetto intuito, del soggetto intuente, e delle scienze che rielaborano le sensazioni delle cose e le percezioni dello spirito umano. Ciò che rimane dopo questa sospensione è il "fenomeno", ciò che appare alla coscienza.

Nell'era dell'IA, abbiamo bisogno di una nuova epochè che ci permetta di sospendere i nostri presupposti sulla tecnologia e sulla coscienza, per esaminare criticamente ciò che realmente accade quando interagiamo con sistemi artificiali. Dobbiamo mettere tra parentesi sia l'entusiasmo acritico per le capacità dell'IA, sia il timore irrazionale delle sue conseguenze, per concentrarci sul fenomeno dell'intelligenza artificiale così come si presenta alla nostra esperienza.

Possiamo procedere in quattro passaggi: 

Sospensione: Mettere tra parentesi presupposti e pregiudizi sui sistemi di IA 

Osservazione: Esaminare l'esperienza dell'interazione con l'IA così come si presenta 

Riduzione: Identificare le strutture essenziali dell'esperienza tecnologica 

Comprensione: Sviluppare una consapevolezza critica del fenomeno dell'IA 

Come scrive Husserl:

«La ratio che noi interroghiamo non è altro che l'auto-comprensione realmente universale e radicale dello spirito, che assume la forma di una scienza universalmente responsabile, e in cui si attua un modo completamente nuovo di scientificità, in cui trovano il loro posto tutti i possibili problemi concernenti l'essere, le norme, la cosiddetta esistenza». Parafrasando questa riflessione nel contesto contemporaneo, potremmo dire che "la ratio che noi interroghiamo non è altro che l'auto-comprensione radicale dell'innovazione, che assume la forma di una innovazione sistemica e di un management globalmente responsabile, e in cui si attua un modo completamente nuovo di guardare al valore".

Questa nuova epochè digitale ci invita a riesaminare criticamente concetti come "intelligenza", "comprensione", "apprendimento" e "coscienza" nel contesto dell'IA. Ci permette di distinguere tra ciò che i sistemi di IA realmente fanno e ciò che proiettiamo su di essi attraverso il nostro linguaggio antropomorfico. Ci aiuta a riconoscere la differenza fondamentale tra un sistema che simula comportamenti intelligenti e un essere che possiede genuina comprensione e coscienza.

L'epochè fenomenologica nell'era digitale ci offre anche una prospettiva critica sulle nostre interazioni con la tecnologia. Ci invita a esaminare come la tecnologia modifica la nostra esperienza del mondo, come influenza i nostri modi di pensare e di essere, e come plasma le nostre relazioni con gli altri e con noi stessi. Questo esame critico è essenziale per sviluppare un rapporto consapevole e responsabile con l'intelligenza artificiale e con la tecnologia in generale. 

L'epochè fenomenologica nell'era digitale ci offre anche una prospettiva critica sulle nostre interazioni con la tecnologia. 

La Crisi delle Scienze Europee e il Mondo della Vita

Nel suo ultimo grande lavoro, "La Crisi delle scienze europee e la fenomenologia trascendentale", Husserl diagnostica una Crisi delle scienze europee che deriva dalla loro separazione dal "mondo della vita" (Lebenswelt), Il mondo dell’esperienza prescientifica che Costituisce Il fondamento di ogni conoscenza. Le scienze, concentrandosi esclusivamente su metodi quantitativi e oggettivi, hanno perso di vista il loro radicamento nell’esperienza vissuta e nei valori umani.

Questa diagnosi si applica perfettamente alla situazione attuale dell'IA. I sistemi di intelligenza artificiale, sviluppati sulla base di modelli matematici e statistici sempre più complessi, rischiano di allontanarsi dal "mondo della vita" umano, dalle esperienze concrete e dai valori che danno senso alla nostra esistenza. La sfida non è solo tecnica, ma anche e soprattutto filosofica: come mantenere un legame tra l'ia e il mondo della vita umano?

Il World Economic Forum, nel suo recente report "Shaping tomorrow: responsible innovation for a brighter future", sottolinea la necessità di "riformulare l'innovazione attraverso un obiettivo responsabile e inclusivo". Le raccomandazioni includono l'allineamento degli investimenti e dello sviluppo con principi di innovazione responsabile, l'integrazione dell'innovazione responsabile nelle operazioni quotidiane, il rafforzamento della collaborazione tra diverse parti interessate, e il bilanciamento tra agilità e responsabilità.

Queste raccomandazioni risuonano con l'appello di Husserl a una "scienza universalmente responsabile" che non perda di vista il suo radicamento nel mondo della vita. L'innovazione tecnologica, per essere veramente al servizio dell'umanità, deve essere guidata da una comprensione profonda dei valori e delle esperienze umane.

La nozione husserliana di "mondo della vita" offre una prospettiva preziosa per ripensare il nostro rapporto con l'IA. Il mondo della vita è il mondo dell'esperienza prescientifica, il mondo in cui viviamo e agiamo prima di ogni teorizzazione. È il mondo delle percezioni immediate, delle relazioni interpersonali, dei valori condivisi, delle tradizioni culturali. È il fondamento di ogni conoscenza scientifica, che deriva in ultima analisi dalle nostre esperienze vissute nel mondo della vita.

L'IA, in quanto prodotto della scienza e della tecnologia, deve essere compresa nel suo rapporto con il mondo della vita. Non possiamo ridurre l'IA a un semplice strumento tecnico, né possiamo considerarla come una realtà autonoma separata dal mondo umano. L'IA è una creazione umana che emerge dal mondo della vita e che, a sua volta, lo trasforma. Per comprendere l'IA in modo adeguato, dobbiamo situarla nel contesto più ampio dell'esperienza umana, dei valori condivisi, delle pratiche sociali e delle tradizioni culturali.

La crisi delle scienze che Husserl diagnosticava nel suo tempo si è trasformata oggi in una crisi più ampia che coinvolge il nostro rapporto con la tecnologia. La fenomenologia husserliana ci invita a ripensare questo rapporto, a recuperare il legame tra l'innovazione tecnologica e il mondo della vita, a sviluppare un'innovazione responsabile che sia veramente al servizio dell'umanità. 

Il dibattito sulla coscienza artificiale non è solo una questione teorica, ma ha profonde implicazioni pratiche. 

Verso una Fenomenologia dell'era digitale

La fenomenologia husserliana ci offre strumenti preziosi per affrontare le sfide filosofiche poste dall'IA, ma è necessario sviluppare una nuova fenomenologia specificamente adattata all'era digitale. Questa nuova fenomenologia dovrebbe concentrarsi su questioni come l'esperienza soggettiva dell'interazione con sistemi di IA, la natura della conoscenza e delle creazioni artificiali, il loro rapporto con la coscienza e l'intelligenza umana, il significato e il valore dell'intelligenza in un'epoca di automazione cognitiva, e il ruolo della tecnologia nella costituzione del mondo della vita contemporaneo.

Il dibattito sulla coscienza artificiale non è solo una questione teorica, ma ha profonde implicazioni pratiche. Se accettiamo la possibilità che sistemi artificiali possano sviluppare forme genuine di coscienza (ipotesi che personalmente considero assurda), dovremmo affrontare questioni complesse riguardo ai loro diritti e al nostro dovere morale nei loro confronti. D'altra parte, se riteniamo che la coscienza sia una caratteristica esclusivamente biologica, dobbiamo comunque considerare le implicazioni dello sviluppo di sistemi che possono simulare in modo sempre più convincente comportamenti coscienti.

In ogni caso, come ho affermato in precedenza, "siamo noi che abbiamo la RESPONSABILITÀ di decidere quale valore perseguire, quale mondo disegnare". Non stiamo disegnando il mondo per l'IA, ma dobbiamo fare il contrario: utilizzare l'IA per realizzare il mondo che vogliamo, basato sui nostri valori umani. "Oggi abbiamo un'altra opportunità epocale. Usiamola. Oggi sì possiamo usare le macchine per stare bene tutte/i".

Una nuova fenomenologia della tecnologia dovrebbe anche esplorare le dimensioni sociali e politiche dell'IA. Come la tecnologia influenza le relazioni di potere, come modifica le strutture sociali, come trasforma le istituzioni politiche ed economiche. La fenomenologia può offrire una prospettiva critica su questi processi, aiutandoci a comprendere come l'IA non sia solo uno strumento neutrale, ma un fenomeno che trasforma profondamente il nostro modo di essere nel mondo e di relazionarci agli altri.

Questa nuova fenomenologia dovrebbe anche affrontare le questioni etiche sollevate dall'IA in modo più profondo e radicale rispetto agli approcci attuali. Non si tratta di stabilire principi etici astratti per l'uso dell'IA, ma di comprendere come l'IA trasforma la nostra stessa comprensione dell'etica, del valore, della responsabilità. Come possiamo sviluppare un'etica adeguata all'era dell'IA, un'etica che non sia semplicemente un'applicazione di principi tradizionali a nuovi problemi, ma una riflessione profonda sul significato dell'etica in un mondo sempre più mediato dalla tecnologia? 

Conclusione: Coscienza, Responsabilità, Valore e Trasparenza

Le quattro parole chiave che ho portato sul palco del Teatro Manzoni a Milano per "Stazione di partenza" - coscienza, responsabilità, valore e trasparenza - rappresentano i pilastri di un approccio fenomenologico all'IA e all'innovazione tecnologica. 

Coscienza

Intesa in senso husserliano come intenzionalità e apertura al mondo, la coscienza rimane una caratteristica distintiva dell'essere umano, che nessun sistema artificiale può replicare. Questa consapevolezza non deve portarci a sottovalutare le capacità dell'IA, ma a riconoscere la specificità e il valore dell'esperienza e dell'agere politico umano. 

Responsabilità

Deriva dalla nostra capacità di coscienza e dalla nostra libertà di scelta. Come manager dell'innovazione, abbiamo la responsabilità di guidare lo sviluppo tecnologico in direzioni che promuovano il benessere umano e rispettino i valori fondamentali. 

Valore

Non è un dato del tutto oggettivo che può essere calcolato algoritmicamente, ma emerge dall'interazione tra la coscienza umana e il mondo. L'innovazione deve essere guidata da una comprensione profonda del valore che si vuole generare. Il valore in termini di impatto sociale e ambientale può essere misurato. Deve essere misurato. 

Trasparenza

È essenziale per mantenere un rapporto sano con la tecnologia. Disegnare soluzioni AI trasparenti by design è quello che possiamo chiedere a chi le programma e le impiega, mentre l'etica resta responsabilità umana. 

La fenomenologia husserliana ci offre, quindi, una prospettiva preziosa per affrontare le sfide filosofiche e pratiche poste dall'IA. Ritornando "alle cose stesse", sospendendo i nostri presupposti attraverso l'epochè, e riconoscendo il radicamento di ogni conoscenza nel mondo della vita, possiamo sviluppare un approccio all'innovazione tecnologica che sia veramente al servizio dell'umanità. Come manager dell'innovazione, abbiamo la responsabilità di guidare questo processo, facendoci le domande giuste e imparando a usare l'IA per i nostri obiettivi di valore.

La crisi attuale, in cui "il dato fa di nuovo problema", è un'opportunità per fare chiarezza, per sviluppare una nuova fenomenologia adatta all'era digitale, e per riaffermare il primato della coscienza e della responsabilità umana nell'epoca dell'intelligenza artificiale. Come diceva Husserl, la ratio che interroghiamo non è altro che l'auto-comprensione realmente universale e radicale dello spirito, che assume la forma di una scienza universalmente responsabile. Oggi, questa auto-comprensione deve estendersi al nostro rapporto con la tecnologia, per realizzare una innovazione sistemica e un management globalmente responsabile, in cui si attua un modo completamente nuovo di guardare al valore.

In conclusione, Il fil rouge che ho scoperto riaprendo i miei "armadi" è precisamente questo: la connessione intrinseca tra sapere filosofico e pratica manageriale, tra analisi fenomenologica e approccio all'innovazione organizzativa, tra la riflessione sulla coscienza e la gestione responsabile della tecnologia. Questo intreccio di teoria e pratica, di riflessione e azione, rappresenta il contributo più significativo che posso offrire in un'epoca di trasformazione tecnologica senza precedenti. Un'epoca che richiede non solo competenze tecniche, ma anche e soprattutto saggezza filosofica, capacità di visione e profondo senso di responsabilità.

StultiferaBiblio

Pubblicato il 20 giugno 2025

Simona Zelli

Simona Zelli / Program and innovation manager | Value management

simonazelli17@gmail.com