Go down

È stata una grande abbuffata di parole sui modelli e sistemi di intelligenza artificiale generativa o agentica, come viene definita adesso per sottolineare una grande svolta rispetto a qualche mese fa...

Il 2025 si è caratterizzato, infatti, per un instancabile susseguirsi di articoli, video e podcast finalizzati a illuminarci sulle mirabolanti opportunità e/o sui patologici rischi dell'intelligenza artificiale.


Ci si è alternati spasmodicamente tra narratori estasiati che teorizzano esplicitamente (o implicitamente) una coscienza dell'IA non riducibile semplicemente alla statistica degli algoritmi e severi critici (più realisti del re) che ricordano che tutta l'IA si possa invece sinteticamente risolvere in "pappagalli stocastici", che pur sanno fare bene il loro mestiere.

Sta di fatto che è in atto da tempo un ginepraio di opinioni, dove ogni (più o meno) esperto dice la sua, riportando il suo punto di vista e spiegando minuziosamente cosa si può fare con l'IA oppure cosa potrebbe accadere, se "essa" prendesse il controllo sull'umanità...portando così il discorso fuori dai binari, verso scenari alla Blade Runner o Matrix.

Nella foga di riflettere sull'IA, per fortuna qualcuno si ricorda del problema dei dati personali, altri riflettono di cybersecurity, qualcun altro bacchetta sul diritto d'autore o si interroga sui rischi di bias... pochissimi sottolineano i rischi di profilazione e manipolazione cognitiva.

È un disco rotto ormai la ipertrofica narrazione sull'IA.

Tra le tantissime parole profuse c'è poco di nuovo in realtà rispetto ai dibattiti che hanno caratterizzato il diritto applicato all'informatica da almeno trent'anni a questa parte.

Del resto, ci stiamo ossessivamente occupando di strumenti e così andrebbero trattati, non come "entità" autonome, seguendo una narrazione distorta e pericolosa che allontana dai reali problemi che tali strumenti propongono.

I modelli e sistemi di IA oggi sono soluzioni informatiche interamente in mano a pochissimi player extra SEE e questo è il problema più imponente da affrontare, in verità.

Applicare in modo diretto e automatico la normativa eccessiva, complessa, burocratica e di compliance UE è pertanto illusorio: una battaglia persa in partenza.

Sarebbe indispensabile, in verità, guardare con attenzione alla Convenzione sull'IA del 2024 del Consiglio d'Europa, di cui nessuno (incredibilmente) parla e puntare ad adottare principi generali a tutela di diritti e libertà fondamentali a livello internazionale. Perché il rischio reale e non distopico non è quello di robot militari con propria coscienza che dominino il mondo, ma di un esercito agentico (ben controllato da pochissime organizzazioni) in grado di affabulare popoli totalmente anestetizzati.

Abbiamo consegnato da tempo le nostre identità, i nostri dati più intimi e profilatissimi, quindi l'intera proiezione digitale di noi stessi, in mano a soggetti commerciali che agiscono nella migliore delle ipotesi per loro finalità e su basi giuridiche evanescenti.

Il rischio che un controllo pervasivo e strisciante si insinui nelle nostre spensierate vite digitali è attualissimo (ed è già in atto).

Digitalmente siamo fragilissimi e le nostre tutele democratiche insussistenti.

Il vero pericolo, di cui troppo pochi discutono, è dettato pertanto da un'involuzione dei cervelli umani, non da una evoluzione di "intelligenze", cervelli e coscienze di natura "artificiale".

La narrazione sull'IA oggi è divisiva e flaccida. Si alterna tra tecno-entusiasti e intransigenti eticisti. In mezzo c'è un vuoto pneumatico da colmare. Ma non con proposte tecnologiche che a loro volta "correggano" la tecnologia.

In questi giorni, infatti, leggo (o ascolto) "illuminanti" ricette, tipo: non conosco l'algoritmo ed è troppo potente e allora lo limito con un altro algoritmo!

L'IA cattiva che si combatte con un'altra IA buona, proprio come nel film the Age of Ultron degli Avengers (2015). Il rischio reale è che si vada avanti così a suggestionare su scenari inattuali, suggerendo una polverizzazione di responsabilità che non ha un punto di partenza coerente fondato sull'unica testa pensante (che è la nostra).

Queste narrazioni inconcludenti e sbagliate portano inevitabilmente a discutere a vanvera anche politicamente. E le discussioni grossolane in politica poi hanno come inevitabile conseguenza la produzione o di proposte normative ridicole (come purtroppo si è rivelata essere la legge 132/2025) o di strategie di (impossibile) sovranità tecnologica, senza mai arrivare alla radice del problema.

E il vero problema siamo evidentemente noi, con i nostri dati.

L'Italia e l'Europa, se davvero vogliono proporre una propria "sovranità" in un ambiente che è a-nazionale come quello del web e del social web (ormai disseminato di sistemi e modelli di IA), allora (ri-)partano dalle nostre radici culturali, dai nostri dati, preservandone (e pretendendone) una qualità.

Oggi servirebbero disperatamente strategie, modelli, metodi, procedure, competenze per custodire con efficacia dati di qualità.

Chi ci sta ragionando nei piani triennali, nelle regole tecniche e nelle normative di settore?

Nessuno.

Ci aggrovigliamo in ragnatele normative che contribuiscono a burocratizzare anche il pensiero, ma ci sfugge poi il presupposto a tutela di ogni bias AI: la qualità dei dati.

Ed è peraltro questo un problema antichissimo, di presidio delle fonti, di verifica dell'autenticità di quell'informazione che contribuisce a fornire poi letture algoritmiche che ormai viviamo come oracoli digitali.

Per gentile concessione oggi i sistemi o i modelli di IA generativa e conversazionale ci informano (molto parzialmente) sulle fonti che hanno utilizzato. Ma sono loro che scelgono per noi. E noi non conosciamo così i dati su cui si sono nutriti i sistemi e modelli di AI e neppure le fonti documentali complessive che sono state utilizzate, ma soprattutto non conosciamo i criteri di selezione utilizzati e i motivi che hanno determinato quindi certe scelte.

Andrebbe ricostruito oggi un sistema affidabile di fonti informative di qualità, da verificare ogni giorno, da gestire attraverso la meticolosa definizione di una gerarchia che possa presidiare e contestualizzare con attenzione la formazione di pensieri agentici.

L'IA non si controlla con l'IA, ma attraverso un archivio affidabile che duri nel tempo e assicuri i presidi informativi a tutela delle nostre democrazie.

Questo dovrebbe valere in ogni settore, dalla sanità all'industria sino alla tutela della trasparenza nei servizi pubblici ed essenziali.

La sfida è e dovrebbe essere solo questa e nessuno ne parla.

Non ne parlano i politici, non ne parlano i filosofi, i giuristi e neppure i giornalisti, che pur dovrebbero essere abituati a tutelare l'informazione.

Qualche archivista e records manager illuminato c'è, in verità. Va detto...

E allora iniziamo a invitarli nei tavoli tecnici, nelle commissioni o negli osservatori che proliferano quasi quanto le normative e i documenti sull'IA!

Ricominciamo un minimo a pensare.

Di questo c'è bisogno e questo mi auguro per il 2026.


E il Quantum?

Quantum siamo messi male... (cit. Stefano Gazzella)

Effettivamente il Quantum Computing è il nuovo paradigma che si ripete come un mantra nella narrazione sull'innovazione digitale negli ultimi mesi.

Ha deciso di intervenire sul mio post lo stesso Sottosegretario Butti e così ne è uscito fuori un articolo coraggioso (e amaro) di Livio Varriale che credo che sia utile leggere con attenzione.

E poi, per concludere in profondissima amarezza, vi suggerisco anche di leggere con attenzione l'impietoso sguardo sui risultati del PNRR portato avanti dal prof. Donato Limone sulla Rivista Agenda Digitale.

Due articoli molto diversi tra loro, ma entrambi sostanzialmente disegnano un'Italia digitale che si distingue solo nei suoi disperati tentativi di affabulare, ma poi finisce purtroppo per annaspare in una stagnazione fatta di sistemi documentali e database che non comunicano e che non puntano sulla qualità, guardando sconsolatamente solo all'ultima novità tecnologica da raccontare.

E questo rende molto simili Quantum e IA nella loro narrazione stantìa...

Tutto da buttare, quindi, quanto fatto dal Governo nel 2025❓

No, ma poco, troppo poco, per festeggiare qualcosa.

Si potrebbe fare di più, anche semplicemente iniziando a guardare in faccia la realtà, senza drammi, vedendone in controluce le reali fragilità, che non sono tecnologiche, ma organizzative, metodologiche e strategiche.

E le strategie dovrebbero iniziare dalle persone, quindi dalla costruzione paziente di competenze interdisciplinari.


Anabasi nel labirinto dell'intelligenza in digitale

Volete un buon libro per riflettere su digitalità e intelligenze (artificiali e non)?

---> Un libro che contiene ingredienti per pensare in modo interdisciplinare...e ci stiamo disabituando a farlo!

Non vi fidate❓

Il volume è stato presentato durante il riuscitissimo Digeat Festival a Lecce e qui c'è una bella recensione sul volume!


E per rimanere ottimisti sulle possibilità concesse dai nostri cervelli:

Remembering Now è il 47° album in studio del cantautore nordirlandese Van Morrison, uscito a giugno di quest'anno.

A 80 anni si riescono a realizzare album intensi, ispirati e poetici come questo.

C'è ancora speranza! ;)

Buon 2026!

Pubblicato il 30 dicembre 2025