Quando si parla di AGI, Artificial General Intelligence, si indica un sistema capace di affrontare un’ampia varietà di compiti cognitivi senza essere progettato per uno specifico dominio. La definizione è semplice; la difficoltà sta nel perché questa generalità è così complessa da ottenere.
Per arrivarci servono tre capacità che devono convivere e lavorare insieme.
Un sistema deve sapersi muovere in contesti nuovi, anche quando le regole non sono completamente definite e cambiano mentre agisce. Deve riuscire a usare ciò che ha appreso in un ambito per affrontare problemi diversi senza ripartire da zero. Deve mantenere nel tempo una memoria coerente, aggiornarla senza contraddirsi e usarla per guidare decisioni successive.
Queste tre dimensioni non sono indipendenti: è proprio la loro integrazione a rendere il problema difficile. Ed è anche ciò che manca quando si passa da un compito ben definito a una situazione aperta.
Il punto non è elencare queste proprietà, ma capire perché non emergono automaticamente scalando i modelli attuali.
I sistemi odierni eccellono nel produrre output plausibili dato un contesto; non costruiscono in modo esplicito un modello del mondo che venga aggiornato attraverso l’esperienza.
Un esempio concreto aiuta a chiarire.
Immaginiamo due scenari.
Nel primo, un sistema scrive una funzione in un linguaggio che conosce bene. Ha visto migliaia di esempi simili e produce una soluzione corretta.
Nel secondo, lo stesso sistema deve gestire un problema che attraversa più domini: leggere una specifica incompleta, fare domande per chiarire requisiti, pianificare una soluzione che coinvolge componenti diversi, adattarsi quando una parte non funziona come previsto e aggiornare il piano senza perdere coerenza.
Il primo scenario è oggi alla portata dei sistemi più avanzati.
Il secondo richiede integrazione tra memoria, pianificazione, gestione dell’incertezza e apprendimento durante l’esecuzione. È qui che la generalità diventa difficile.
Quando si parla di apprendimento continuo, memoria coerente e trasferimento di dominio, si fa riferimento a questa capacità di operare nel secondo scenario senza una fase separata di addestramento per ogni variazione del problema.
Un altro punto spesso dato per scontato riguarda la natura dei sistemi attuali.
Dire che ottimizzano l’output non equivale a dire che “non capiscono” in senso assoluto. Significa che il loro comportamento è guidato da correlazioni apprese su grandi quantità di dati e da obiettivi di ottimizzazione definiti in fase di addestramento.
Questa impostazione produce risultati molto efficaci in molti casi. Allo stesso tempo, rende difficile costruire rappresentazioni stabili e causali del mondo, soprattutto quando i dati non coprono adeguatamente la situazione corrente.
Su questo punto esiste un dibattito aperto: quanto di ciò che osserviamo sia una forma emergente di comprensione e quanto sia una generalizzazione statistica molto sofisticata. L’articolo non prende una posizione definitiva; evidenzia il limite operativo che emerge quando si richiede coerenza tra contesti diversi e nel tempo.
Nel frattempo, l’uso quotidiano di questi sistemi sta già modificando i processi decisionali. In molte attività compare una fase in cui si delega la sintesi, la generazione di alternative o la produzione di contenuti.
Questo sposta il modo in cui si arriva a una decisione e il punto in cui si colloca la responsabilità.
La qualità del linguaggio gioca un ruolo importante. Un’espressione fluida facilita l’attribuzione di comprensione. Tuttavia, la capacità linguistica non garantisce una rappresentazione stabile del contesto né una gestione affidabile delle contraddizioni.
Per questo motivo, la questione non è solo quando o se arriverà un sistema con caratteristiche di AGI. È come vengono utilizzati oggi sistemi che non possiedono tali caratteristiche, ma vengono inseriti in processi che richiedono continuità, giudizio e responsabilità.
Il cambiamento in atto riguarda il modo in cui produciamo e validiamo conoscenza. Parte del lavoro cognitivo viene delegato a sistemi che operano su basi statistiche e obiettivi di ottimizzazione. Questo richiede nuovi criteri operativi: sapere quando fidarsi, quando verificare, quando fermarsi.
La differenza pratica non è tra usare o non usare questi strumenti. È tra usarli come supporto in un processo che resta comprensibile e tracciabile, oppure integrarli in modo opaco, dove diventa difficile ricostruire perché una decisione è stata presa.
L’AGI, se e quando arriverà, sarà un passaggio ulteriore. Oggi il tema è gestire sistemi molto efficaci ma non generali, inserendoli in contesti in cui la coerenza nel tempo e tra domini è ancora responsabilità umana.
Non la data in cui arriverà qualcosa di nuovo, ma il modo in cui lavoriamo oggi con strumenti che amplificano la capacità di produrre risposte più velocemente di quanto siamo in grado di valutarle.