Go down

Il 27 aprile 2026 si è aperto a Oakland, in California, il processo che vede Elon Musk contro OpenAI e il suo amministratore delegato Sam Altman. Musk, cofondatore e primo finanziatore dell'organizzazione nel 2015, accusa Altman di aver tradito la missione originaria: nata come fondazione senza scopo di lucro per sviluppare l'intelligenza artificiale a beneficio di tutta l'umanità, OpenAI si sarebbe trasformata in un veicolo commerciale strettamente legato a Microsoft. Musk chiede danni miliardari e la rimozione di Altman dalla guida dell'azienda. Una giuria popolare dovrà decidere.

I giornali lo raccontano come un duello. Da una parte Musk, l'uomo più ricco del mondo, sempre più controverso. Dall'altra Altman, il padre di ChatGPT, l'uomo che ha portato l'intelligenza artificiale nelle case di tutti. In mezzo, una causa miliardaria e quella che molti definiscono la battaglia per l'anima dell'intelligenza artificiale.

Forse troppo bene. Il duello tra due miliardari ha il vantaggio di essere semplice, visivo, adatto ai titoli. Ma riduce a una questione personale qualcosa che personale non è. La vera posta in gioco non riguarda né Musk né Altman. Riguarda una domanda che nessuno dei due ha mai avuto interesse a rispondere: chi custodisce il bene dell'umanità, quando a prometterlo è un'azienda privata?


Conviene chiarire subito di cosa stiamo parlando, perché OpenAI non è quello che sembra a prima vista. Tecnicamente è ancora controllata da una fondazione senza scopo di lucro, OpenAI Inc., quella fondata nel 2015. Ma nel 2019 sotto la fondazione è stata creata una società commerciale, OpenAI Global, e da lì in poi è lì che si è concentrata la quasi totalità dell'attività, dei capitali, del personale e del valore di mercato. La formula scelta è quella del "profitto limitato": gli investitori possono guadagnare, ma fino a un tetto. Oltre quella soglia, i ritorni dovrebbero in teoria tornare alla missione della fondazione.

Sulla carta, dunque, OpenAI è un'azienda al servizio di una missione. La fondazione nomina il consiglio di amministrazione, decide la direzione strategica, custodisce i fini originari. La società commerciale è lo strumento operativo, non il padrone. Microsoft ha investito decine di miliardi e ha diritti commerciali esclusivi sui modelli, ma formalmente non siede nel consiglio che governa l'insieme.

Nei fatti, chiunque osservi sa che la realtà è diversa. Nel novembre 2023 il consiglio della fondazione licenziò Altman invocando proprio ragioni legate alla missione. In pochi giorni i dipendenti, sostenuti da Microsoft, costrinsero il board a reintegrarlo e a dimettersi. Quell'episodio ha mostrato dove sta davvero il potere. La struttura formale dice fondazione. La struttura sostanziale dice società commerciale, con una fondazione attaccata sopra. La trasformazione che Musk contesta in tribunale è proprio il tentativo recente di rendere quella struttura ibrida ancora più sbilanciata verso il versante commerciale, riducendo il ruolo di controllo della fondazione e aprendo la strada a una valutazione di mercato piena.

È in questa zona grigia che si gioca tutto. Non perché qualcuno l'abbia cancellata, la natura originaria, ma perché è diventata una cornice intorno a qualcosa che funziona diversamente da come si presenta.


Nel 2015, quando OpenAI fu fondata, Musk e Altman non erano due visionari mossi da spirito filantropico. Erano due persone molto ambiziose che operavano nel settore tecnologico più competitivo del mondo. Il linguaggio del "bene dell'umanità" non era un ideale, era una scelta strategica: serviva ad attrarre ricercatori che altrimenti sarebbero andati a Google o Facebook, a legittimare la raccolta di fondi, a occupare un territorio narrativo prima degli altri.

Musk donò circa 38 milioni di dollari. Una cifra importante, ma per un uomo con un patrimonio da decine di miliardi era una scommessa di posizionamento, non un atto di generosità. Quando lasciò l'azienda nel 2018, dopo tensioni con Altman sulla guida del progetto, OpenAI era ancora un laboratorio relativamente oscuro. Quando decise di portarla in tribunale, ChatGPT era già il prodotto tecnologico di maggior successo degli ultimi anni e lui aveva appena fondato xAI, un concorrente diretto.

Il bene dell'umanità è diventato improvvisamente urgente nel momento in cui c'era un mercato da contendere.


Sarebbe però sbagliato liquidare la causa come semplice rivalità commerciale travestita da principio etico. Il problema che il processo mette in luce è reale, anche se i protagonisti non sono le persone giuste per sollevarlo.

OpenAI è nata con un impegno scritto: lavorare per il beneficio di tutti, non di pochi. Quell'impegno non aveva nessun meccanismo di verifica. Nessuna autorità esterna preposta a controllarlo, nessuna definizione operativa di cosa significasse concretamente, nessuna conseguenza prevista in caso di violazione. Era una dichiarazione d'intenti, non una forma di governo. E qui sta il punto: una missione senza istituzioni che la sostengano non è una garanzia, è un'aspirazione. Funziona finché il contesto la rende conveniente, smette di funzionare il giorno in cui smette di esserlo.

Quando i capitali privati sono arrivati in quantità industriale, quando Microsoft ha investito miliardi in cambio di diritti esclusivi, quando la struttura societaria si è trasformata nel sistema ibrido che si è descritto sopra, quella dichiarazione d'intenti non ha retto. Non perché qualcuno l'abbia tradita deliberatamente, ma perché non era mai stata abbastanza concreta da poter resistere alla pressione del mercato.

Ora ci pensa un giudice. Ed è questa la vera notizia.


Siamo nell'epoca in cui l'intelligenza artificiale comincia a toccare in modo diretto la vita delle persone: il lavoro, la salute, l'istruzione, le decisioni amministrative. I sistemi che producono queste trasformazioni sono costruiti da una manciata di aziende private, la maggior parte delle quali ha sede in due paesi, Stati Uniti e Cina. Si presentano quasi sempre con un linguaggio ambizioso, parlano di responsabilità, sicurezza, benefici per tutti. Ma nessuno ha ancora risposto alla domanda fondamentale: chi controlla che quelle parole corrispondano a qualcosa di reale?

In Europa si è provato con una legge, l'AI Act, che classifica i sistemi per livello di rischio e impone obblighi concreti ai costruttori. È un tentativo serio, anche se limitato: disciplina i prodotti, non le missioni. Non risponde alla domanda su chi custodisce l'anima di un laboratorio privato che si propone di costruire un'intelligenza superiore a quella umana.

Negli Stati Uniti quella domanda, almeno per ora, la risponde un tribunale civile, sulla base di contratti firmati dieci anni fa e di email interne recuperate dagli archivi. In Cina la risponde lo Stato, con criteri che hanno poco a che fare con i diritti delle persone.


Il processo di Oakland non stabilirà chi ha ragione tra Musk e Altman. Stabilirà, al massimo, se un contratto è stato rispettato o violato. Ma la domanda che conta davvero (come si governa lo sviluppo dell'intelligenza artificiale in modo che risponda a qualcuno, e a qualcosa di verificabile) non ha ancora trovato una sede all'altezza.

Né è facile costruirla. I parlamenti procedono per cicli legislativi che durano anni, mentre il settore si riorganizza ogni pochi mesi. I regolatori dipendono per la propria competenza tecnica dalle stesse aziende che dovrebbero sorvegliare. L'asimmetria informativa tra chi costruisce i sistemi e chi dovrebbe controllarli è strutturale, non contingente. Non è solo questione di volontà politica.

Quella domanda non può restare in mano a un giudice californiano chiamato a dirimere una lite tra due miliardari. E non può nemmeno restare dentro le dichiarazioni d'intenti di chi costruisce i sistemi. Ha bisogno di istituzioni, procedure, controlli reali. Di una risposta che non dipenda dalla buona volontà di nessuno.

È una risposta che, al momento, nessuno sa dare. Non perché manchino le idee, ma perché manca il soggetto politico capace di costruirla. Le istituzioni che potrebbero farlo sono lente, frammentate, dipendenti dalle stesse aziende che dovrebbero regolare. I cittadini, che pure subiranno gli effetti più diretti di questa trasformazione, non hanno strumenti per intervenire. E intanto il processo va avanti, le aziende si riorganizzano, i sistemi si diffondono. La domanda resta aperta. La risposta arriverà — perché dovrà arrivare — ma non è chiaro né quando, né da dove, né a quale prezzo.

Pubblicato il 28 aprile 2026

Martino Pirella

Martino Pirella / Consulente e formatore AI

https://martinopirella.com