Norbert Wiener, matematico e filosofo, è una figura decisiva per comprendere il presente tecnologico. Ideatore della cibernetica, ha definito un campo che non riguarda soltanto le macchine, ma la struttura stessa dei sistemi complessi, viventi e artificiali. Già negli anni Quaranta e Cinquanta, Wiener aveva intuito che il comportamento intelligente può essere descritto come il risultato di circuiti di feedback e che tali meccanismi possono essere simulati dalle macchine, aprendo un passaggio teorico fondamentale verso lo sviluppo dell’intelligenza artificiale. Questa intuizione non riguarda soltanto la tecnica; implica una trasformazione del modo in cui pensiamo l’agire, la responsabilità e il rapporto tra previsione e decisione. Se l’intelligenza è una funzione del trattamento dell’informazione, allora il confine tra umano e artificiale si sposta, diventando una questione di organizzazione.
Allo stesso tempo, per Wiener, le macchine che apprendono e decidono sono nodi all’interno di infrastrutture che selezionano, filtrano e orientano il reale. La questione non riguarda soltanto ciò che queste macchine fanno, ma chi definisce i parametri entro cui operano, quali obiettivi incorporano, quali forme di mondo rendono possibili e quali escludono. È in questa tensione tra capacità tecnica e responsabilità politica che il pensiero di Wiener torna a essere utile. Interrogarlo oggi significa comprendere come si costruiscono i sistemi che pretendono di anticipare il futuro e quali forme di controllo esercitano sul presente, un modo per leggere criticamente le promesse e le ambiguità dell’intelligenza artificiale contemporanea.
1. Controllo e retroazione
CAB: Che cosa significa davvero “controllare” un sistema?
NORBERT WIENER: Il controllo è un processo circolare, una relazione continua tra azione e risposta. Un sistema che agisce senza ricevere informazione sui propri effetti è, in senso stretto, cieco, perché non possiede alcun criterio interno per distinguere tra successo ed errore.
Ciò che ho chiamato feedback non è altro che la capacità di correggere il proprio comportamento alla luce delle conseguenze. Ogni azione genera un segnale di ritorno, e questo segnale diventa parte integrante del sistema stesso. Senza questo ritorno dell’informazione, ogni azione si degrada in rumore, in una sequenza di atti privi di orientamento.
La macchina moderna, come l’organismo vivente, non opera per comando lineare, ma per aggiustamenti continui. Non esegue semplicemente istruzioni, ma confronta e corregge. In questo senso, il controllo non è dominio ma regolazione, adattamento.
Direi allora che il controllo è sempre una forma di ascolto. Non si tratta di imporre un ordine dall’esterno, ma di mantenere una coerenza interna attraverso il dialogo con l’ambiente. E chi controlla davvero non è chi stabilisce una regola una volta per tutte, ma chi sa interpretare i segnali che ritornano e modificarvi il proprio comportamento. In ultima analisi, un sistema ben controllato non è quello che elimina l’incertezza, ma quello che sa utilizzarla come informazione.
2. Informazione e intelligenza
CAB: Se l’informazione è il cuore dei sistemi, che cos’è allora l’intelligenza?
NORBERT WIENER: L’informazione è organizzazione, coincide con la struttura che dà forma al comportamento. Dire che un sistema è intelligente significa riconoscere che è capace di trattare configurazioni di informazione in modo efficace rispetto a un ambiente, cioè di orientare le proprie azioni sulla base dei segnali che riceve.
Noi stessi non siamo che configurazioni temporanee, schemi che persistono nel flusso. Ho scritto che siamo vortici in un fiume, forma che si mantiene attraverso un continuo scambio con ciò che la circonda. L’identità non è un dato, ma un processo di organizzazione che si rinnova nel tempo.
In questo senso, l’intelligenza è una funzione. È la capacità di ridurre l’incertezza attraverso l’elaborazione di segnali, di trasformare il disordine in una forma utilizzabile per l’azione. Ogni atto intelligente è un atto di selezione, di filtraggio, di interpretazione.
Le macchine possono partecipare a questo processo, e in alcuni casi lo fanno con una rapidità e una scala che eccedono quelle umane. Tuttavia, ciò che resta aperto è la questione del significato. L’informazione può essere trattata senza essere compresa; può essere manipolata senza essere vissuta.
Ed è qui che si apre un conflitto importante, tra l’efficacia operativa e la comprensione. Una macchina può ridurre l’incertezza senza sapere che cosa sta facendo; un essere umano, invece, è chiamato a rispondere del senso delle proprie azioni.
3. Umano e macchina
CAB: Esiste una continuità reale tra mente umana e macchina?
NORBERT WIENER: Esiste una continuità operativa, non ontologica. Il sistema nervoso e le macchine di comunicazione condividono una struttura funzionale, ricevono segnali, li trasformano, producono risposte. Entrambi operano contro l’entropia, tentando di mantenere una forma nel tempo attraverso processi di regolazione. In questo senso, la distinzione tra vivente e artificiale si attenua quando osserviamo il loro comportamento in termini di informazione e controllo.
Tuttavia, questa analogia non deve essere scambiata per un’identità. L’essere umano non è soltanto un dispositivo di elaborazione; è inserito in una rete di significati, di responsabilità e di decisioni che eccedono il calcolo. Le macchine trattano simboli e segnali; l’essere umano è chiamato a interpretarli, a situarli in un contesto, a risponderne.
La questione, dunque, non riguarda ciò che le macchine possono fare, ma ciò che siamo disposti a delegare. Quando trasferiamo funzioni cognitive a sistemi automatici, non stiamo semplicemente estendendo le nostre capacità; stiamo anche ridefinendo il perimetro della nostra responsabilità.
Il pericolo non è che le macchine diventino umane; è che gli esseri umani accettino di ridursi a macchine, adottando come proprio modello il funzionamento di ciò che hanno costruito. In quel momento, la continuità operativa rischia di trasformarsi in una riduzione dell’umano alla sua dimensione più povera, quella puramente funzionale.
4. Tecnologia e responsabilità
CAB: Lei ha espresso forti preoccupazioni etiche sullo sviluppo tecnologico. Dove vede oggi il rischio principale?
NORBERT WIENER: Il rischio risiede nell’uso che se ne fa delle macchine e, ancor prima, nelle finalità che le vengono assegnate. La macchina non decide i propri scopi, ma li esegue con una fedeltà che può diventare pericolosa se que,li scopi non sono stati interrogati criticamente.
Già dopo la guerra avevo compreso che fornire conoscenza tecnica significa intervenire nella struttura del potere. Non esiste informazione innocente quando è inserita in sistemi di controllo; ogni flusso informativo contribuisce a determinare chi può agire, chi può prevedere, chi può orientare il comportamento degli altri.
Oggi i sistemi automatici non si limitano a eseguire istruzioni; organizzano il comportamento collettivo, anticipano decisioni, suggeriscono percorsi, spesso senza dichiarare i criteri che li guidano. Si afferma così una forma di potere che non ha bisogno di manifestarsi esplicitamente, perché opera attraverso la modulazione delle possibilità stesse di scelta.
Il problema politico diventa allora inevitabile: chi definisce gli obiettivi dei sistemi? Chi stabilisce cosa deve essere ottimizzato e a quale costo? Ogni sistema di controllo incorpora una gerarchia di valori, anche quando si presenta come neutrale.
Una macchina può eseguire perfettamente uno scopo; ma se lo scopo è mal posto, l’efficienza diventa distruttiva. In questo senso, la responsabilità non diminuisce con l’automazione; al contrario, si sposta a monte, nel momento in cui decidiamo quali fini affidare alle macchine e quali limiti imporre al loro operare.
5. Previsione e incertezza
CAB: Possiamo davvero prevedere il futuro con le macchine?
NORBERT WIENER: Possiamo tentare di ridurre l’incertezza; non eliminarla. Ogni previsione è un’estrapolazione costruita a partire da informazioni incomplete, e questa incompletezza non è un limite contingente, ma una condizione strutturale.
Il mio lavoro sul filtraggio e sul rumore nasce precisamente da questa consapevolezza. Non osserviamo mai il mondo in modo puro, ma attraverso segnali disturbati, attraversati da interferenze, approssimazioni, perdite. Il problema non è eliminare il rumore, ma distinguere, entro il rumore, ciò che può diventare informazione utile.
Le macchine possono migliorare la qualità delle previsioni, perché sono in grado di trattare grandi quantità di dati e di individuare regolarità altrimenti invisibili. Tuttavia, non possono sottrarci alla responsabilità di interpretarle. Una previsione non è mai un fatto; è una costruzione che richiede un giudizio.
C’è un punto oltre il quale la fiducia nel calcolo diventa superstizione. Quando crediamo che il modello coincida con il mondo, smettiamo di vedere ciò che eccede il modello, e proprio lì si annidano gli errori più gravi. Un sistema può essere perfettamente coerente e tuttavia profondamente sbagliato rispetto alla realtà che pretende di descrivere.
L’incertezza, dunque, non è un difetto da correggere, ma una condizione con cui dobbiamo imparare a operare. La funzione delle macchine non è eliminare il rischio, ma renderlo leggibile; la decisione resta, inevitabilmente, un atto umano.
Conclusione
L’eredità di Wiener non è soltanto tecnica; è una presa di posizione sul rapporto tra conoscenza e potere. Se la cibernetica ha mostrato che il mondo è fatto di relazioni e di scambi di informazione, allora ogni infrastruttura tecnologica deve essere letta come una forma di organizzazione politica. Non esistono sistemi di controllo neutri, perché ogni circuito di feedback seleziona ciò che conta, stabilisce quali segnali devono essere ascoltati e quali ignorati, quali comportamenti devono essere corretti e quali incentivati.
In questo quadro, le macchine non si limitano a eseguire; partecipano alla costruzione del reale, contribuendo a definire ciò che appare come razionale, efficiente, inevitabile. Il rischio non risiede soltanto nell’automazione delle decisioni, ma nella naturalizzazione dei criteri che le guidano, nel loro presentarsi come puramente tecnici quando sono, in realtà, esiti di scelte storiche e politiche.
Ciò che emerge riguarda la responsabilità di chi progetta e governa le macchine, la possibilità di mantenere uno spazio di decisione umana all’interno di sistemi che tendono a chiudersi su sé stessi. Non si tratta, dunque, di interrogarsi su ciò che le macchine possono fare, ma su ciò che decidiamo di farne, e sulle forme di mondo che, attraverso di esse, scegliamo di rendere operative.
Breve biografia dell’autore
Norbert Wiener (1894–1964) è stato un matematico, filosofo e pioniere dell’informatica statunitense, considerato il fondatore della cibernetica, la disciplina che studia i processi di comunicazione e controllo nei sistemi viventi e nelle macchine. Professore al MIT, ha contribuito in modo decisivo alla teoria dei segnali, ai processi stocastici e ai sistemi di retroazione, ponendo le basi teoriche di molti sviluppi dell’intelligenza artificiale.
Accanto alla ricerca scientifica, Wiener ha elaborato una riflessione critica sul rapporto tra tecnologia, società e potere, sottolineando la responsabilità etica degli scienziati e i rischi legati all’automazione e all’uso militare delle innovazioni. Tra le sue opere principali si ricordano Cybernetics (1948), The Human Use of Human Beings (1950) e God & Golem, Inc. (1964).
IIP nasce da una curiosità: cosa direbbero oggi i grandi pensatori del passato di fronte alle sfide dell’intelligenza artificiale? L’idea è di intervistarli come in un esercizio critico, un atto di memoria e, insieme, un esperimento di immaginazione.
Ho scelto autori e intellettuali scomparsi, di cui ho letto e studiato alcune opere, caricando i testi in PDF su NotebookLM. Da queste fonti ho elaborato una scaletta di domande su temi generali legati all’AI, confrontandole con i concetti e le intuizioni presenti nei loro scritti. Con l’aiuto di GPT ho poi generato un testo che immagina le loro risposte, rispettandone stile, citazioni e logica argomentativa.
L’obiettivo è riattivare il pensiero di questi autori, farli dialogare con il presente e mostrare come le loro categorie possano ancora sollecitarci. Non per ripetere il passato, ma per scoprire nuove domande e prospettive, utili alla nostra ricerca di senso.