Go down

Spazio, tempo e AI

L’intelligenza artificiale non è solo una nuova tecnologia, ma fa parte di un cambiamento più profondo nel modo in cui produciamo e comprendiamo la conoscenza. Ogni fase della storia scientifica ha prodotto strumenti capaci di estendere le facoltà umane; ciò che distingue l’AI è il fatto che questa estensione interviene direttamente sui processi di selezione, organizzazione e produzione del sapere. Non si limita a supportare il pensiero; ne ristruttura l’ambiente operativo, ridefinendo il rapporto tra osservazione, interpretazione e decisione.
I modelli che utilizza non descrivono il mondo in termini di leggi universali, ma operano attraverso correlazioni e approssimazioni, la conoscenza assume una forma probabilistica, continuamente aggiornata. Questo passaggio implica uno spostamento dalla ricerca di strutture necessarie a una gestione dell’incertezza, dove il valore non risiede nella spiegazione ma nella previsione efficace. Se la realtà viene vista solo come un insieme di schemi che emergono dai dati, che cosa resta dell’idea che il mondo abbia un senso profondo e comprensibile?
Qui il confronto con Einstein diventa particolarmente interessante. La sua resistenza a una concezione puramente probabilistica della fisica non era una posizione conservatrice, ma la convinzione che la scienza debba tendere a una coerenza interna capace di rendere conto della realtà in termini non contingenti. Il rifiuto del caso come fondamento ultimo non significa rifiutare la probabilità come strumento, ma criticare l’idea che la probabilità descriva la natura stessa della realtà. Applicata all’AI, questa tensione permette di interrogare il rischio di un sapere che rinuncia a comprendere per limitarsi a funzionare.
Allo stesso tempo, l’intelligenza artificiale introduce una questione politica che eccede la dimensione teorica. I sistemi che producono conoscenza sono incorporati in infrastrutture private. Chi controlla questi sistemi determina non solo l’accesso alle informazioni, ma le condizioni stesse in cui qualcosa può apparire come vero. Non si tratta più soltanto di interpretare il mondo, ma di stabilire quali rappresentazioni del mondo acquisiscono efficacia operativa.
Einstein aveva già intuito questo nesso tra scienza e responsabilità. La sua posizione rispetto al nucleare mostra con chiarezza come la produzione di sapere non possa essere separata dalle sue conseguenze. L’AI radicalizza questa condizione, perché agisce su scala diffusa e continua, integrandosi nei processi decisionali che regolano la vita sociale. Il problema non è soltanto cosa le macchine possono fare, ma come vengono inserite in strutture di potere che orientano il loro utilizzo. In questo quadro, la responsabilità non riguarda più solo lo scienziato, ma l’intero ecosistema che rende possibile e legittima una certa forma di conoscenza.
Resta infine una questione che tocca la soggettività. Se i sistemi intelligenti anticipano scelte, filtrano informazioni, modulano l’attenzione, intervengono sulla formazione delle preferenze, allora l’intelligenza non è più soltanto una proprietà individuale, ma un effetto distribuito tra esseri umani e dispositivi. Questo scenario non elimina la libertà, ma la riconfigura. Diventa necessario interrogare quali spazi restano per una decisione che non sia interamente prefigurata da modelli predittivi.
Intervistare oggi Einstein è interessante proprio per utilizzare il suo pensiero come strumento critico. La sua insistenza su una realtà intelligibile, la sua diffidenza verso una riduzione probabilistica del mondo, la sua attenzione al legame tra scienza ed etica offrono un punto di osservazione che consente di sottrarre l’intelligenza artificiale alla retorica dell’inevitabile. In un contesto in cui il funzionamento tende a sostituire la comprensione e l’efficacia a prendere il posto della verità, Einstein permette di riaprire una questione che riguarda insieme conoscenza e possibilità di scelta.


1. Realtà e modelli

CAB: Le macchine oggi producono modelli del mondo a partire dai dati. Possiamo dire che comprendono la realtà?

ALBERT EINSTEIN: Comprendere è una parola impegnativa. I nostri modelli, anche i più eleganti, restano costruzioni dello spirito. La teoria non è la realtà, ma una sua rappresentazione ordinata. Ho sempre pensato che la cosa più incomprensibile dell’universo sia il fatto che esso sia comprensibile.

Quando formuliamo una teoria, non scopriamo semplicemente qualcosa che era già lì, in attesa di essere registrato. Operiamo una scelta, introduciamo principi, costruiamo un linguaggio che renda il mondo intelligibile. Anche le mie equazioni, per quanto precise, non sono il mondo; sono un tentativo di coglierne la struttura. Questo implica sempre una distanza. La conoscenza non coincide mai con l’oggetto che pretende di descrivere.

Le macchine, come gli esseri umani, operano attraverso schemi, ma lo fanno in modo diverso. Anticipano comportamenti sulla base di ciò che è già accaduto, e in questo senso sono strumenti straordinariamente efficaci. Tuttavia, non si pongono il problema del perché, non interrogano i fondamenti dei propri risultati, non cercano una coerenza che unifichi i fenomeni sotto un principio comune.

La ricerca scientifica, almeno come l’ho intesa, è guidata da una tensione verso l’unità. Si tratta di ridurre la molteplicità delle apparenze a un insieme limitato di leggi, di cogliere un ordine che non sia soltanto statistico ma strutturale. Questa tensione non nasce dai dati, ma da un atto dell’intelletto che precede e orienta l’osservazione. Senza questa intenzione, la conoscenza rischia di ridursi a una catalogazione sempre più raffinata, ma priva di comprensione.

Le macchine non sanno di operare attraverso schemi, perciò non possono mettere in discussione i presupposti del proprio funzionamento. Questo è il loro limite, ma anche ciò che le rende utili. Liberano l’uomo da una parte del lavoro analitico, ma non possono sostituire quel momento in cui si decide quali domande porre e quali relazioni cercare.

Per questo direi che non comprendono la realtà. Producono rappresentazioni operative, spesso molto efficaci, ma la comprensione implica un rapporto diverso con il mondo. Richiede la capacità di riconoscere che ogni modello è parziale, che ogni descrizione è situata, e che il compito della scienza non è soltanto prevedere, ma rendere il mondo intelligibile senza esaurirne il mistero.


2. Determinismo e probabilità

CAB: L’AI si basa su modelli probabilistici. Questo mette in discussione l’idea di un ordine deterministico del mondo?

ALBERT EINSTEIN: La probabilità è spesso il segno della nostra ignoranza, non una proprietà ultima della natura. Ho espresso più volte la mia diffidenza verso un universo governato dal caso. “Dio non gioca a dadi con l’universo”, dissi, e lo ripeterei ancora.

Ciò non significa negare l’utilità dei metodi statistici. Essi sono strumenti potenti, come lo sono stati nella fisica. Ma scambiare lo strumento per la struttura ultima del reale è un errore metodologico. La scienza cerca leggi; la probabilità descrive regolarità osservate quando le leggi ci sfuggono.

Nella mia esperienza, ogni avanzamento significativo è avvenuto quando si è riusciti a oltrepassare la descrizione statistica per cogliere una relazione necessaria, una struttura coerente che renda conto dei fenomeni in modo unitario. Il successo di un modello probabilistico non prova che il mondo sia governato dal caso; indica piuttosto che siamo ancora lontani da una teoria più profonda.

I sistemi che oggi chiamate intelligenza artificiale operano con grande efficacia proprio in questo spazio intermedio: identificano configurazioni ricorrenti, anticipano comportamenti, producono previsioni. È un risultato notevole, ma non equivale a una comprensione. La previsione può funzionare anche in assenza di una teoria; la scienza, invece, non può rinunciare a chiedersi perché qualcosa accade.

Vi è inoltre un rischio più sottile. Quando un metodo funziona su larga scala, tende a imporsi come paradigma. Si smette di interrogare i suoi presupposti e lo si assume come misura del reale. In questo modo, la probabilità non resta più un linguaggio operativo, ma diventa una forma implicita di ontologia. È qui che la prudenza diventa necessaria.

Non escludo che la natura contenga elementi che sfuggono a una descrizione deterministica nel senso classico. Ma riterrei prematuro concludere che il caso sia il suo principio costitutivo. La tensione verso una comprensione più profonda non è un residuo del passato; è la condizione stessa della ricerca. Senza questa tensione, la conoscenza si riduce a tecnica, e la tecnica, per quanto raffinata, non sostituisce il pensiero.


3. Intelligenza e coscienza

CAB: Una macchina può essere considerata intelligente nello stesso senso di un essere umano?

ALBERT EINSTEIN: Dipende da cosa intendiamo per intelligenza. Se la riduciamo alla capacità di risolvere problemi, allora molte macchine già superano l’essere umano in ambiti specifici. In questo senso, non c’è nulla di sorprendente, il calcolo può essere formalizzato, accelerato, reso più preciso.

Ma l’intelligenza umana non coincide con questa dimensione. Essa non si esaurisce nella soluzione di problemi già dati; consiste piuttosto nella capacità di porli. La scienza, almeno per come l’ho praticata, non procede per accumulazione lineare di risultati, ma attraverso salti concettuali, attraverso atti in cui l’immaginazione precede la verifica. Le idee decisive nascono spesso da una tensione tra ciò che osserviamo e ciò che non riusciamo ancora a spiegare; è in questo scarto che si apre lo spazio della conoscenza.

Una macchina può apprendere regolarità e riconoscere schemi, anticipare esiti sulla base di ciò che è già stato registrato. Tuttavia, opera entro un orizzonte che le è dato. Non ha motivo di dubitare dei propri presupposti, perché non li ha scelti.

La coscienza, in questo senso, non è un semplice correlato funzionale dell’intelligenza. È la capacità di situarsi rispetto al proprio sapere, di interrogarne i limiti, di percepire l’insufficienza di ogni modello. Senza questa distanza, non vi è comprensione, ma soltanto esecuzione.

Le macchine possono dunque ampliare in modo straordinario il raggio delle nostre operazioni; possono liberare tempo, moltiplicare le possibilità di analisi, persino suggerire connessioni che ci sfuggono. Ma non sostituiscono quel momento in cui una nuova idea interrompe la continuità del pensiero, introducendo un ordine diverso. È in quel gesto che si manifesta ciò che, con cautela, continuiamo a chiamare intelligenza.


4. Scienza, tecnica e responsabilità

CAB: L’AI sta diventando un’infrastruttura centrale della società. Qual è il rischio principale?

ALBERT EINSTEIN: Il rischio non è nella macchina, ma nell’uso che ne facciamo. Ho visto come le scoperte scientifiche possano essere impiegate per fini distruttivi perché il sapere, una volta prodotto, entra in sistemi di potere che ne orientano l’impiego. La conoscenza conferisce potere, e il potere senza responsabilità conduce a esiti che sfuggono al controllo.

La tecnica tende a svilupparsi secondo una propria logica interna. Ogni soluzione genera nuovi problemi, ogni problema richiede nuovi strumenti; si crea una catena che si autoalimenta. In questo processo, la domanda sul senso viene spesso sospesa. Si procede perché è possibile farlo. Ma il fatto che qualcosa sia possibile non implica che sia desiderabile.

L’intelligenza artificiale rende questo meccanismo più pervasivo. Non si limita a produrre strumenti; interviene nei processi decisionali, nella selezione delle informazioni, nella costruzione stessa dei criteri con cui giudichiamo ciò che è rilevante. In questo modo, la tecnica non è più soltanto un mezzo, ma una componente attiva nell’organizzazione della realtà sociale.

La riflessione etica, invece, richiede tempo, e non può essere automatizzata. Quando la velocità dello sviluppo tecnico supera la capacità di elaborazione collettiva, si produce uno scarto. È in questo che emergono i rischi più significativi; non tanto nell’errore della macchina, quanto nell’assenza di un quadro condiviso entro cui valutare le sue conseguenze.

Ogni avanzamento dovrebbe essere accompagnato da una duplice interrogazione. A quale scopo viene sviluppato e chi ne beneficia. Non sono domande accessorie, ma condizioni di legittimità. Senza, la scienza rischia di ridursi a una forma di ingegneria del possibile, priva di orientamento.

La responsabilità non può essere delegata agli strumenti. Deve restare una prerogativa umana, e questo implica assumere i limiti della conoscenza insieme alle sue possibilità. Senza questa consapevolezza, la scienza perde il suo carattere umano e si trasforma in una forza che agisce senza misura, incapace di interrogare le proprie conseguenze.


5. Conoscenza e limite

CAB: L’AI sembra promettere una conoscenza totale, capace di anticipare e prevedere. È una prospettiva realistica?

ALBERT EINSTEIN: La conoscenza totale è un’illusione. Ogni teoria, anche la più raffinata, è una costruzione che si avvicina al reale senza mai coincidere con esso. La natura conserva sempre un margine che sfugge, non per difetto dei nostri strumenti, ma per la struttura stessa del rapporto tra osservatore e mondo.

Quando lavoravo alla relatività, ciò che mi guidava non era l’idea di esaurire il reale, ma di renderlo più intelligibile, di trovare una forma che riducesse le contraddizioni e rendesse più coerente l’insieme dei fenomeni. Questo processo non si conclude, ogni soluzione apre nuove domande.

L’intelligenza artificiale introduce una potenza inedita nel trattamento dei dati e nella capacità di previsione, ma quest’ultima non è comprensione. Anticipare un evento non significa coglierne la necessità interna. I modelli statistici operano su regolarità osservate; la scienza, almeno nella sua aspirazione più alta, cerca le condizioni che rendono quelle regolarità possibili.

C’è un rischio sottile in questa trasformazione. Quando un sistema funziona con grande efficacia, tende a produrre una forma di fiducia che non distingue più tra ciò che è operativo e ciò che è vero. Si accetta il risultato perché è utile, perché è verificato nell’esperienza immediata, e si rinuncia a interrogare i presupposti che lo rendono possibile. In questo modo, la conoscenza si appiattisce sul funzionamento.

La vera forza della scienza non consiste nell’accumulare risposte, ma nel mantenere aperta la tensione tra ciò che sappiamo e ciò che resta da comprendere. Il limite non è un ostacolo, ma una condizione di possibilità. Senza il riconoscimento del limite, la ricerca si trasforma in amministrazione dell’esistente.

Se le macchine ci porteranno a credere che ogni fenomeno possa essere previsto, classificato e governato senza residui, allora avranno prodotto un impoverimento. Non perché riducono le capacità umane, ma perché modificano il modo in cui poniamo le domande.

La meraviglia non è un sentimento accessorio, ma ciò che orienta la conoscenza verso ciò che ancora non è stato pensato. Senza questa apertura, anche il sapere più sofisticato diventa chiuso, autoreferenziale. La scienza, allora, smette di essere un’avventura dell’essere umano e diventa una tecnica tra le altre.


Breve biografia

Albert Einstein (1879–1955) è stato un fisico teorico nato a Ulm e attivo tra Europa e Stati Uniti, considerato una figura centrale della scienza del Novecento. Ha ridefinito la comprensione di spazio, tempo ed energia con le teorie della relatività ristretta e generale e ha contribuito in modo decisivo allo sviluppo della fisica quantistica, in particolare con la spiegazione dell’effetto fotoelettrico, per cui ricevette il Premio Nobel nel 1921.

Oltre alla ricerca scientifica, ha preso posizione su questioni politiche e morali del suo tempo, opponendosi al nazismo, sostenendo il pacifismo e interrogando il rapporto tra scienza, potere e responsabilità. La sua riflessione attraversa fisica, filosofia e impegno civile, mantenendo come filo conduttore l’idea che la conoscenza scientifica non possa essere separata dalle sue implicazioni etiche.



IIP nasce da una curiosità: cosa direbbero oggi i grandi pensatori del passato di fronte alle sfide dell’intelligenza artificiale? L’idea è di intervistarli come in un esercizio critico, un atto di memoria e, insieme, un esperimento di immaginazione.

Ho scelto autori e intellettuali scomparsi, di cui ho letto e studiato alcune opere, caricando i testi in PDF su NotebookLM. Da queste fonti ho elaborato una scaletta di domande su temi generali legati all’AI, confrontandole con i concetti e le intuizioni presenti nei loro scritti. Con l’aiuto di GPT ho poi generato un testo che immagina le loro risposte, rispettandone stile, citazioni e logica argomentativa.

L’obiettivo è riattivare il pensiero di questi autori, farli dialogare con il presente e mostrare come le loro categorie possano ancora sollecitarci. Non per ripetere il passato, ma per scoprire nuove domande e prospettive, utili alla nostra ricerca di senso.

Pubblicato il 28 aprile 2026

Carlo Augusto Bachschmidt

Carlo Augusto Bachschmidt / Architect | Director | Image-Video Forensic Consultant

https://independent.academia.edu/CABachschmidt