Viviamo in un tempo in cui l’intelligenza artificiale è diventata la nuova grammatica della modernità. Tutti ne parlano, pochi la comprendono.
La moltiplicazione di termini come prompt engineering, AI strategist o trainer di chatbot mostra quanto sia facile scambiare l’uso per la conoscenza, la superficie per la sostanza. Scrivere un prompt non è un atto cognitivo, è un gesto retorico: la traduzione di una domanda in linguaggio naturale rivolta a un modello che non ragiona, ma calcola. Una rete neurale, anche nella sua forma più evoluta, non elabora concetti ma pesi: è un algoritmo di regressione che ottimizza matrici di probabilità. Non produce significati, ma approssimazioni di linguaggio.
Eppure, una parte crescente del dibattito pubblico confonde questa simulazione statistica con la conoscenza reale, e scambia la perizia lessicale per competenza scientifica.
Chi lavora davvero nella gestione dell’informazione sa che la vera intelligenza non è artificiale ma organizzativa.
Un sistema documentale non serve a conservare file, ma a garantire autenticità, integrità, reperibilità, leggibilità e affidabilità nel tempo. Questi cinque principi dell’archivistica digitale sono la base su cui si regge la memoria amministrativa. Un documento, in senso tecnico, è un’entità giuridica di memoria: un oggetto complesso composto di contenuto, contesto e relazioni. La sua natura digitale non lo semplifica, lo stratifica. Introduce metadati, versioni, identificatori persistenti, problemi di interoperabilità e di conservazione a lungo termine.
Chi ignora questa dimensione epistemica, confonde l’amministrazione digitale con la semplice dematerializzazione. Ma la dematerializzazione è un atto tecnico, non cognitivo: riduce il supporto, non amplia il significato.
la conoscenza è un equilibrio fragile tra dati, segnali e interpretazione
Nei primi anni Novanta, durante il mio servizio nell’Aeronautica Militare, imparai che la conoscenza è un equilibrio fragile tra dati, segnali e interpretazione. Lavoravo sull’acquisizione, l’analisi e la conservazione delle informazioni, in contesti dove l’errore non era ammesso. Si trattava di riconoscere segnali, di isolare il rumore, di verificare la provenienza delle fonti, di conservare tracce garantendo la non modificabilità. Quella scuola di precisione tecnica e responsabilità informativa divenne per me una forma mentale. Fu lì che capii che l’intelligenza, prima di essere artificiale, è organizzativa: dipende dalla qualità del flusso informativo e dalla capacità del sistema di mantenere coerenza nel tempo.
Dopo il congedo continuai a lavorare con immagini, dati e testi. In ambito civile e pubblico, la sfida era la stessa: dare struttura alla conoscenza. Collaborai con progetti per la Pubblica Amministrazione, molti dei quali riservati, dove la gestione dei documenti digitali doveva rispondere a criteri di sicurezza e verificabilità.
In altri casi, come nel settore ecclesiastico, affrontai la complessità dell’informazione in archivi storici e biblioteche, dove non esistevano soluzioni predefinite: bisognava inventare sul momento metodi di digitalizzazione, riconoscimento testuale (OCR), analisi semantica e indicizzazione. Si costruivano pipeline di acquisizione in Python, modelli di segmentazione, normalizzazione dei caratteri, regole euristiche per distinguere il contenuto dalla marginalia, il documento dall’apparato.
Subito dopo ebbi il privilegio di partecipare anche allo sviluppo di PAFlow, un'applicazione a codice sorgente aperto, pensata proprio per la gestione dei processi documentali nella pubblica amministrazione. All’epoca PAFlow era sviluppata in Python, basata su Zope e su PostgreSQL; integrava un motore di workflow, e consentiva la protocollazione ai sensi di legge, ma anticipava concetti come la fascicolazione, la firma elettronica, la cifratura.
Era, per molti aspetti, una forma di cognitive workflow automation ante litteram: un modello in cui i procedimenti amministrativi si comportavano come reti neurali, con nodi decisionali, flussi e stati transitori.
In alcune amministrazioni, tra cui la Regione Siciliana, dimostrammo che la digitalizzazione completa dei processi era possibile già vent’anni fa. Ma il progetto non si impose. Le logiche politiche e le pressioni commerciali favorirono soluzioni più costose e spesso proprietarie. Si preferì spendere decine di milioni di euro per replicare ciò che un sistema aperto e interoperabile faceva a costo quasi nullo.
È la sindrome che Andrea Lippi chiama riformismo performativo: il cambiamento come rappresentazione, non come sostanza. Una dinamica antica, che Stefano Sepe nella sua Storia dell’amministrazione italiana (1861-2017) individua come la principale causa della modernizzazione incompleta del sistema amministrativo italiano.
Oggi, parlando di intelligenza artificiale nella pubblica amministrazione, rischiamo lo stesso errore.
Si promettono algoritmi capaci di classificare automaticamente i documenti, generare verbali, prevedere tempi di risposta. Ma chi conosce davvero i sistemi sa che la questione non è tecnologica, è semantica. Un large language model (LLM) può calcolare similarità vettoriali, ma non comprendere la differenza tra un atto deliberativo e un atto gestionale, tra un protocollo e una nota di servizio. Può predire che due documenti “parlano di appalti”, ma non sa quale dei due vincola giuridicamente un ente.
Il rischio è di sostituire la comprensione con la correlazione, la semantica con la statistica.
Ed è qui che nasce una domanda inevitabile: come può essere “efficace” l'intervento di chi si limita a indovinare come interloquire con un sistema che non pensa?
Queste macchine non comprendono, ma approssimano. “Tirano a caso così bene” da sembrare in grado di modellare il caso stesso.
Eppure, si tratta sempre di simulazioni, di una forma raffinata di imitazione probabilistica. Possiamo davvero credere che chi insegna a “scrivere prompt” — cioè a formulare richieste in modo da ottenere risposte verosimili da un modello — sia in grado di operare con efficacia all’interno della pubblica amministrazione, dove ogni parola, ogni dato, ogni firma ha valore legale, semantico e storico?
Spendere denaro pubblico per corsi di “prompt engineering”, spacciati come formazione sull’intelligenza artificiale, significa ancora una volta confondere l’illusione con la competenza. È il riflesso automatico di un sistema che, anziché apprendere dai propri archivi e dalle proprie esperienze, insegue la novità linguistica del momento.
Ma l’amministrazione non ha bisogno di indovini digitali: ha bisogno di architetti della conoscenza, di persone che comprendano la natura giuridica del documento, la logica del fascicolo, la struttura dei dati e i vincoli di interoperabilità. Continuare a investire in corsi di prompt design senza un pensiero documentale solido significa ripetere l’errore del passato: spendere, apparire innovativi e, alla fine, non cambiare nulla.
l’amministrazione non ha bisogno di indovini digitali: ha bisogno di architetti della conoscenza, di persone
La gestione documentale — quella vera — non è mai stata una questione di software, ma di metodo. Significa sapere come nasce un documento, come si valida, come si conserva e come si rende disponibile nel tempo. Significa comprendere che un fascicolo digitale non è una cartella con file, ma un ecosistema informativo coerente, fondato su metadati, vincoli e regole di interoperabilità.
Ecco perché l’intelligenza artificiale, se usata male, rischia di diventare un alibi. Un modo per nascondere la mancanza di metodo dietro l’apparenza di innovazione. Quando un modello linguistico “classifica” documenti senza trasparenza nei criteri, quando un algoritmo produce output non verificabili, non stiamo digitalizzando: stiamo oscurando.
In questo senso, la document management, nella sua accezione più profonda, è una scienza della memoria collettiva. Ogni protocollo è una cellula, ogni fascicolo un tessuto, ogni archivio un organismo. L’intelligenza artificiale può aiutare a mappare, classificare e collegare queste strutture, ma solo se rispetta la logica archivistica che le governa. L’archivio digitale, infatti, è un sistema cibernetico di retroazione: raccoglie dati, li elabora, genera decisioni e li reinserisce nel ciclo amministrativo. Senza questa retroazione, la conoscenza si spegne.
Per questo, quando qualcuno sostiene che i miei testi “sembrano scritti da una IA”, rispondo che la differenza è tutta nella provenienza. Le macchine combinano simboli, gli umani conservano senso. Nessuna rete neurale può comprendere cosa significhi garantire la persistenza di un’informazione per decenni, o la responsabilità di una firma digitale su un documento destinato alla conservazione perpetua. Le mie parole vengono da esperienze reali, da sistemi progettati, testati, verificati, corretti. Vengono da notti di debug, dalla configurazione di server di database ridondanti, da archivi migrati, da dati cifrati e riconsegnati integri a distanza di anni.
Ed è questa la ragione per cui nessuna intelligenza artificiale potrà mai scrivere ciò che nasce dall’esperienza: perché la memoria, per essere vera, deve essere vissuta.
Bibliografia ragionata
-
Poggi, Gianfranco. La burocrazia. Natura e patologie. Bari-Roma: Laterza, 2013. ISBN 978-88-5810-563-4. (Laterza)
-
Lippi, Andrea. Modelli di amministrazioni pubbliche. Bologna: Il Mulino, 2022. ISBN 978-88-1529-397-8. (Il Mulino)
-
Sepe, Stefano. Storia dell’amministrazione italiana (1861-2017). Napoli: Editoriale Scientifica, 2018. ISBN 978-88-93914-01-7. (catalogo.share-cat.unina.it)
-
Nonaka, Ikujiro & Takeuchi, Hirotaka. The Knowledge-Creating Company: How Japanese Companies Create the Dynamics of Innovation. New York: Oxford University Press, 1995.
-
Boiko, Bob. The Content Management Bible. New York: John Wiley & Sons, 2005.
-
Casellato, Marco. Archivistica informatica. Milano: Giuffrè, 2017.