Go down

Da quando i modelli generativi sono entrati nella conversazione pubblica, abbiamo iniziato a parlare di intelligenza artificiale come di un nuovo soggetto: sempre più potente, sempre più autonomo, quasi una mente. Ma cosa accade se cambiamo prospettiva? Se l’intelligenza non fosse una proprietà del singolo sistema, ma qualcosa che emerge dalle relazioni tra sistemi?


Per molto tempo abbiamo raccontato l’intelligenza artificiale come se fosse una persona.

Le abbiamo dato un volto, una voce, perfino un nome. Abbiamo parlato di “modelli sempre più intelligenti”, di “super-intelligenze”, di sistemi che un giorno potrebbero superare l’uomo. La narrazione è sempre stata la stessa: crescere, scalare, ingrandire. Più parametri, più dati, più potenza.

Come se l’intelligenza fosse una questione di dimensione.

Eppure, se ci fermiamo un attimo a guardare la natura, scopriamo che quasi mai l’intelligenza funziona così.

Uno stormo non ha un capo. Una colonia di formiche non ha una mente centrale che decide tutto. Nessuna singola formica conosce il progetto completo del formicaio. Eppure il formicaio esiste. Funziona. Si adatta. Sopravvive.

L’intelligenza, lì, non sta nel singolo. Sta nelle relazioni.

Forse è questo che stiamo iniziando a capire anche nell’AI.

Negli ultimi tempi abbiamo spinto verso modelli sempre più grandi, sempre più monolitici. Sistemi enormi che cercano di fare tutto. Rispondere a tutto. Sapere tutto. Ma parallelamente, quasi in silenzio, sta emergendo un altro approccio: tanti agenti più piccoli, specializzati, che collaborano.

Non un cervello unico. Uno sciame.

Agenti che si scambiano informazioni. Che si dividono i compiti. Che si correggono a vicenda. Che non hanno la visione completa, ma contribuiscono a costruirla insieme.

Non è solo un’evoluzione tecnica. È un cambio di metafora.

Il modello monolitico rassicura: c’è un centro, c’è controllo, c’è un punto di comando. Lo sciame invece è meno intuitivo. È distribuito. È fluido. È più difficile da “possedere”. E proprio per questo è più resiliente.

Se un sistema centralizzato fallisce, tutto si blocca. Se uno sciame perde un agente, continua.

Questa differenza non riguarda solo l’AI. Riguarda il modo in cui pensiamo l’organizzazione, il potere, perfino l’intelligenza umana.

Anche noi funzioniamo così quando funzioniamo davvero. Non quando c’è un genio isolato che decide per tutti, ma quando le competenze circolano. Quando le idee rimbalzano. Quando nessuno ha il quadro completo, ma insieme lo costruiamo.

Forse ci siamo innamorati dell’idea dell’AI come individuo perché è una metafora che capiamo. Ci è familiare. È rassicurante pensare a un’intelligenza che assomiglia alla nostra.

Ma la natura ci suggerisce qualcosa di diverso: l’intelligenza non è una proprietà. È un fenomeno emergente.

Non nasce dall’accumulo, ma dall’interazione.

E allora la domanda cambia. Non è più “quanto sarà intelligente il prossimo modello?”, ma “quanto saranno intelligenti le reti che sapremo creare?”.

Forse la prossima rivoluzione non arriverà da un modello gigantesco con numeri impressionanti, ma da sistemi capaci di cooperare in modo dinamico, distribuito, adattivo. Ecosistemi di agenti che imparano insieme, sbagliano insieme, migliorano insieme.

E in fondo, mentre costruiamo sciami artificiali, stiamo anche mettendo in discussione una convinzione molto umana: che l’intelligenza sia qualcosa che si possiede individualmente.

Forse non è mai stato così.

Forse l’intelligenza è sempre stata una questione di connessioni.


Pubblicato il 16 febbraio 2026

Gianluca Garofalo

Gianluca Garofalo / Automazione Strategica | Architetture SW | GenAI, Etica e Innovazione | @ENIA