Go down

Il presente contributo esplora la "fertilità" dell'Actor-Network Theory (d’ora in avanti ANT) come strumento per comprendere l'Intelligenza Artificiale (AI) come fenomeno socio-tecnico. L'argomentazione sostiene che i sistemi di AI sono actanti attivi con un'agenzia distribuita, che partecipano alla co-produzione di realtà.
Attraverso i concetti fondamentali dell'ANT - come l'ontologia relazionale, l'ibridità e le black box - il paper analizza l'influenza dell'AI sulle strutture organizzative e sociali. Si esamina come l'AI ridefinisca le interazioni e impatti la gestione algoritmica, le dinamiche di potere, la responsabilità e la conoscenza, presentando esempi di come essa trasformi i modelli di governance e di lavoro.
This paper explores the 'fertility' of Actor-Network Theory (ANT) as a tool for understanding Artificial Intelligence (AI) as a socio-technical phenomenon. The argument posits that AI systems are active 'actants' with distributed agency, participating in the co-production of realities. Through ANT's fundamental concepts—such as relational ontology, hybridity, and black boxes—the paper analyzes AI's influence on organizational and social structures. It examines how AI redefines interactions and impacts algorithmic management, power dynamics, responsibility, and knowledge, using examples to show how it transforms governance and work models.

L’unico errore che non ha scuse è il cercare di nascondere o minimizzare un errore invece che cercare di apprendere il più possibile dal medesimo

Karl Popper

Un Dialogo interdisciplinare per la comprensione dell'Intelligenza Artificiale

La crescente pervasività dell'Intelligenza Artificiale (AI) nel contesto contemporaneo impone una ridefinizione delle categorie analitiche per indagare il rapporto tra tecnologia e società. La sua influenza, manifestandosi quale catalizzatore di profonde trasformazioni, solleva interrogativi critici circa il suo "luogo" ontologico e la natura della sua "azione" nel mondo. L'analisi di tali fenomeni non può limitarsi a considerare l'AI un mero strumento tecnico, ma deve riconoscere il suo ruolo di attante attivo.

È in questa direzione che si osserva, seguendo la Retorica di Aristotele, che la metafora si posiziona in un punto intermedio tra ciò che non si comprende pienamente e il luogo comune, agendo come un potente generatore di conoscenza. Per tale ragione, le metafore di "luogo" e "azione" sono qui impiegate per affrontare la sfida di inquadrare la complessità e la pervasività dell'AI. Il presente contributo intende esplorare, attraverso le lenti delle teorie che si esporranno, come l'AI non si limiti a occupare uno spazio, fisico o virtuale, ma agisca come una forza dinamica capace di riconfigurare relazioni, strutture organizzative e le stesse configurazioni di potere.

Teorie di Rete e Sistemi Sociotecnici

Nel campo degli studi sui sistemi complessi e sull'interazione tra elementi sociali e tecnici, è possibile identificare due prospettive teoriche di grande rilevanza storica e concettuale: la prospettiva sociotecnica del Tavistock Institute of Human Relations e la Teoria dell'attore-rete. Sebbene queste teorie siano state sviluppate in periodi distinti e abbiano approcci metodologici diversi, un'analisi comparativa rivela relazioni significative e un dialogo fruttuoso che ha arricchito la comprensione dei fenomeni organizzativi e tecnologici. La prospettiva sociotecnica, la cui origine si colloca negli anni '50 presso il Tavistock Institute of Human Relations a Londra, è un punto di riferimento ineludibile per l'indagine sulle organizzazioni. Fondata da figure seminali quali Eric Trist, Fred Emery e Ken Bamforth, l'originaria teoria dei sistemi sociotecnici fu elaborata in risposta a studi empirici condotti nelle miniere di carbone britanniche. Il lavoro di Trist e Bamforth, esposto nel loro celebre articolo del 1951, "Some Social and Psychological Consequences of the Longwall Method of Coal-Getting", ha messo in luce come l'introduzione di una nuova tecnologia, pur ottimizzando la produzione dal punto di vista tecnico, avesse provocato un'interruzione della coesione sociale e della motivazione dei lavoratori, con conseguenze negative sull'efficienza complessiva. Il concetto cardine di questa prospettiva è la "joint optimization" (ottimizzazione congiunta), che postula l'esistenza di un sistema sociale e di un sistema tecnico all'interno di un'organizzazione. L'efficacia di un sistema sociotecnico non deriva dall'ottimizzazione isolata di uno dei due subsistemi, ma dalla loro interdipendenza e dal raggiungimento di un equilibrio dinamico tra le esigenze della tecnologia e quelle delle persone.

The human side of the moon: dinamiche inconsce

Nel vasto e complesso panorama degli studi sulle organizzazioni, l'influenza della psicoanalisi ha rappresentato un crocevia teorico e metodologico di fondamentale importanza, specialmente in Gran Bretagna e, successivamente, in Italia. L'origine di questa prospettiva si può rintracciare nell'attività di studiosi di diverse discipline, tra cui la psicologia, la sociologia e la psicoanalisi, che si sono adoperati per comprendere le dinamiche complesse che intercorrono tra l'individuo, il gruppo e l'organizzazione. L'introduzione del pensiero psicoanalitico all'interno del Tavistock ha permesso di esplorare il "lato umano" dei sistemi di lavoro, superando la visione dell'individuo come attore puramente razionale. Figure come Elliott Jaques, Isabel Menzies Lyth e Wilfred Bion hanno fornito contributi essenziali per questa evoluzione, applicando la psicoanalisi delle istituzioni alla comprensione dei fenomeni organizzativi.

Jaques (1951) ha evidenziato come le organizzazioni non siano semplici aggregati di individui, ma sistemi complessi che fungono da difesa contro le ansie primitive e i conflitti interiori dei loro membri. Il suo lavoro sottolineate come le dinamiche di potere e le paure inconsce influenzino la struttura e i processi organizzativi. Le istituzioni, in questa visione, si configurano come dispositivi di contenimento delle angosce, dove i ruoli, le gerarchie e le procedure non servono solo a scopi razionali, ma anche a gestire le tensioni emotive.

Menzies Lyth (1960) ha approfondito questa linea di pensiero con il suo celebre studio sulle infermiere ospedaliere. Ha elaborato il concetto di organizzazione sociale come sistema di difesa (social system as a defence system), dimostrando come le strutture e le routine burocratiche siano meccanismi collettivi inconsci per far fronte all'ansia e allo stress derivanti dal contatto costante con la sofferenza e la morte. La sua teoria ha messo in luce la dialettica tra la funzione manifesta dell'organizzazione e la sua funzione latente, ovvero la gestione delle ansie.

Il pensiero di Bion (1961) ha avuto un impatto duraturo sulla comprensione delle dinamiche di gruppo e, per estensione, delle organizzazioni. La sua distinzione tra gruppo di lavoro (orientato al compito e alla realtà) e gruppo con assunto di base (guidato da fantasie e impulsi inconsci) ha offerto uno strumento analitico potente. Bion ha identificato tre assunti di base – dipendenza, attacco-fuga e accoppiamento – che rappresentano modalità irrazionali con cui i gruppi reagiscono a situazioni di stress, paura e incertezza. L'applicazione di queste categorie ha consentito di decodificare il comportamento apparentemente irrazionale dei gruppi e delle organizzazioni, riconducendolo a dinamiche inconsce e a risposte emotive non mediate. È proprio dal pensiero di Bion che deriva il concetto di contenitore, inteso come la capacità di un individuo o di un gruppo di "contenere" e metabolizzare le ansie e le proiezioni altrui.

La Psicosocioanalisi in Italia: integrazione e sviluppo

L'eredità intellettuale del Tavistock è stata recepita e rielaborata in Italia attraverso la prospettiva psicosocioanalitica, che ha posto la dimensione human-centered al centro dell'analisi dei sistemi sociotecnici. Questo approccio, sviluppato da un gruppo di studiosi tra cui spiccano Luigi Pagliarani, Dario Forti e Giuseppe Varchetta (l'elenco non può che essere parziale e provvisorio, data la ricchezza del dibattito), ha integrato la sociologia delle organizzazioni con la psicoanalisi delle istituzioni, in particolare quella di matrice inglese e argentina (Bleger, Pichon-Rivière). L'obiettivo è stato quello di superare la dicotomia tra individuo e organizzazione, proponendo una visione in cui le dinamiche psichiche e quelle sociali si co-determinano reciprocamente.

Un contributo fondamentale proviene dal pensiero di José Bleger, il cui lavoro sulla simbiosi e sulla relazionalità è stato cruciale per la comprensione delle istituzioni. Bleger ha introdotto il concetto di nucleo aglutinato, una parte indifferenziata della personalità che si manifesta nei gruppi e nelle istituzioni sotto forma di anonimato e regressione. La Psicosocioanalisi ha ripreso queste categorie per leggere le organizzazioni come entità in cui coesistono parti mature e differenziate con parti primitive e simbiotiche. L'intervento psicosocioanalitico mira a "slegare" il nucleo simbiotico per favorire lo sviluppo di una cultura più matura e funzionale.

Il pensiero di Enrique Pichon-Rivière, con il suo modello di gruppo operativo, ha offerto un altro pilastro teorico. Per Pichon-Rivière, il gruppo operativo è un'unità di lavoro in cui i membri si uniscono per affrontare un compito, superando gli ostacoli interni ed esterni. La nozione di vincolo – la struttura intersoggettiva che lega gli individui – è stata fondamentale per la Psicosocioanalisi italiana come strumento di analisi e di intervento.

I contributi di Luigi (Gino) Pagliarani, Dario Forti e Giuseppe Varchetta hanno rappresentato un punto di svolta cruciale, sistematizzando e arricchendo ulteriormente la prospettiva psicosocioanalitica in Italia. Essi hanno definito l'approccio come un metodo che riconosce la centralità dell'essere umano non solo come attore razionale, ma anche come portatore di un inconscio organizzativo. L'organizzazione, in questa visione, non è un'entità inerte, ma un "soggetto" vivo che esprime una propria storia, una cultura e una rete di fantasie, miti e paure collettive che influenzano in modo determinante i processi decisionali e le relazioni interpersonali.

Il loro lavoro ha evidenziato come l'organizzazione si configuri come un "contenitore" dinamico, capace di accogliere e gestire o amplificare le ansie e i conflitti dei suoi membri. L'intervento psicosocioanalitico, pertanto, non si limita a un'analisi strutturale, ma si focalizza sull'esplorazione del "lavoro emotivo" che si svolge nell'organizzazione. L'obiettivo è quello di rendere consapevole il sistema organizzativo dei propri meccanismi difensivi e delle proprie dinamiche inconsce, in modo da poterli elaborare e superare, favorendo un processo di crescita e di apprendimento.

Pagliarani, Forti e Varchetta (1992) hanno sottolineato il ruolo del consulente come "interprete del sistema", una figura che, richiamandosi ai concetti di Bion, si offre come "contenitore" delle ansie e delle proiezioni del gruppo. Attraverso un processo di interpretazione e riflessione, il consulente aiuta l'organizzazione a dare un senso a ciò che accade a livello emotivo e simbolico, trasformando le emozioni in strumenti di apprendimento e crescita. Questo processo di "alfabetizzazione emotiva" dell'organizzazione è considerato cruciale per il passaggio da una cultura reattiva e difensiva a una cultura proattiva e matura.

Lo Sviluppo organizzativo clinico

La maturazione della prospettiva psicosocioanalitica italiana non si è limitata alla sola rielaborazione del pensiero di matrice psicodinamica, ma si è altresì alimentata di un confronto critico e costruttivo con altre tradizioni teoriche e operative, in particolare con lo sviluppo organizzativo (OD) di matrice americana. Questo dialogo interculturale e interdisciplinare ha rappresentato una fase cruciale per la Psicosocioanalisi italiana, consentendo la genesi di un approccio distintivo, il cosiddetto sviluppo organizzativo clinico, che si distingue per la sua capacità di integrare la dimensione psicodinamica con una visione pragmatica del cambiamento.

La scuola psicosocioanalitica italiana ha accolto il contributo dell'OD americano, riconoscendone il valore pragmatico e l'orientamento all'azione, ma ha proceduto a una profonda rielaborazione, integrando gli strumenti di intervento con una più raffinata comprensione delle dinamiche inconsce. Questa sintesi ha dato vita al concetto di sviluppo organizzativo clinico (Pagliarani, 1980; Forti & Varchetta, 1982), un approccio che supera le limitazioni di entrambi i modelli e ne unisce i punti di forza. La Psicosocioanalisi ha introdotto una distinzione cruciale: il cambiamento organizzativo non è solo un processo tecnico o razionale, ma una questione ontologica. Se l'OD americano si focalizzava su "come" cambiare, lo sviluppo organizzativo clinico si interroga su "che cosa" l'organizzazione e i suoi membri diventano nel processo di cambiamento. Il focus si sposta dal problem-solving al problem-sensing, ovvero alla capacità di percepire e dare senso ai problemi prima ancora di cercare una soluzione.

Le caratteristiche salienti dello sviluppo organizzativo clinico, così come ridefinito in Italia, sono le seguenti:

  • l'organizzazione come soggetto: a differenza della visione strumentale delle organizzazioni come sistemi da ottimizzare, l'approccio clinico le considera come soggetti organizzativi dotati di una loro propria psiche, storia, cultura e, soprattutto, di un inconscio organizzativo. Le ansie, le fantasie e i miti collettivi non sono visti come anomalie da eliminare, ma come la sostanza stessa della vita organizzativa, la cui comprensione è fondamentale per qualsiasi intervento. L'organizzazione, in questa prospettiva, non è un semplice "oggetto" da analizzare, ma un "soggetto" con cui si instaura una relazione;

  • il contenitore clinico: il concetto di "contenitore", formulato originariamente da Bion, viene rielaborato in una dimensione clinica. Il consulente non si limita a facilitare una discussione, ma si offre come "contenitore" delle ansie, delle proiezioni e delle resistenze del. Attraverso un processo di "lavoro emotivo" e di rispecchiamento, il consulente aiuta l'organizzazione a metabolizzare ciò che altrimenti rimarrebbe inespresso o agito attraverso comportamenti disfunzionali. Questo lavoro non ha l'obiettivo di "curare" l'organizzazione, ma di facilitare un processo di consapevolezza e di alfabetizzazione emotiva che possa generare apprendimento e trasformazione ;

  • la trasformazione come obiettivo: mentre l'OD americano mirava al "cambiamento" (inteso come modifica di comportamenti e strutture), lo sviluppo organizzativo clinico persegue la trasformazione, un processo più profondo che implica una riorganizzazione del senso e del significato. L'intervento non si limita a implementare nuove procedure o a migliorare la comunicazione, ma cerca di aiutare l'organizzazione a rinegoziare la propria identità e a rielaborare le proprie difese. Si ritiene che il cambiamento autentico e duraturo non possa avvenire senza una profonda comprensione del perché le cose sono come sono;

  • Il ruolo del consulente come interprete: a differenza del consulente di processo di Schein, che si concentra sul "come" fare le cose e come “aiutare il cliente ad aiutarsi a fare le cose” – nel tempo presente e futuro – il consulente psicosocioanalitico è un interprete del sistema, una figura che aiuta l'organizzazione a comprendere i significati nascosti delle sue azioni e relazioni. Il suo intervento si basa su un'ipotesi interpretativa che non è data come una verità, ma come uno stimolo per la riflessione e l'auto-diagnosi. Si favorisce un approccio di co-ricerca, in cui il cliente e il consulente esplorano insieme i fenomeni emergenti.

In conclusione, l'integrazione con lo sviluppo organizzativo americano ha permesso alla Psicosocioanalisi italiana di affinare i propri strumenti metodologici, La rielaborazione di questi concetti ha dato vita a un modello unico, lo sviluppo organizzativo clinico, che si presenta come una sintesi tra rigore scientifico e attenzione alla dimensione emotiva e inconscia. Questo approccio non si limita a ottimizzare l'efficienza, ma ambisce a promuovere una profonda trasformazione del soggetto organizzativo, favorendone la crescita, il benessere e la capacità di apprendere dalle proprie esperienze.

La simmetria prospettica dell’Actor Network Analisys

La Teoria dell'attore-rete (ANT), sviluppatasi a partire dagli anni '80 principalmente a opera di sociologi della scienza come Bruno Latour, Michel Callon e John Law, pur non essendo un'erede diretta del Tavistock, ne farà uno dei punti cardine della propria disamina, rielaborando il concetto di interazione socio-tecnica in una prospettiva radicalmente nuova. L'ANT sposta il focus dall'ottimizzazione congiunta di due sistemi distinti a una concezione della realtà come un'unica rete eterogenea, in cui il "sociale" e il "tecnico" sono intrinsecamente co-costituiti. Questa teoria si fonda sul principio della simmetria generalizzata, secondo cui attori umani e non umani (gli "attanti"), come tecnologie, documenti, algoritmi e infrastrutture, sono trattati con lo stesso rigore analitico. L'azione non è più vista come un'esclusiva delle persone, ma come il risultato di una continua negoziazione e traduzione tra tutti gli elementi della rete. Le relazioni tra queste due prospettive, nonostante le loro differenze di periodo e metodologia, risiedono nella loro comune attenzione all'interazione tra fattori sociali e tecnici. Tuttavia, l'ANT può essere vista come una radicalizzazione del pensiero sociotecnico. Mentre il Tavistock Institute considera il sistema sociale e il sistema tecnico come domini interdipendenti ma separabili, l'ANT rifiuta questa distinzione a priori, sostenendo che tali categorie emergono e si stabilizzano solo attraverso l'azione della rete stessa. In questo senso, l'ANT fornisce una metodologia per investigare i processi attraverso cui i sistemi sociotecnici si formano e si mantengono, offrendo un quadro analitico più granulare e distribuito. Autori contemporanei hanno esplorato la fertilità del dialogo tra queste due tradizioni. Si osserva che diversi studiosi hanno impiegato l'ANT come strumento per analizzare i sistemi sociotecnici in modi che la teoria originaria del Tavistock non permetteva. Ad esempio, Patrick H. Wilson, nel suo lavoro di confronto, ha sostenuto che "L'ANT fornisce una lente per l'analisi dei sistemi sociotecnici che supera le limitazioni della dicotomia sociale/tecnico, consentendo di tracciare la genesi e la stabilità delle reti". Questo accostamento mostra come l'ANT possa essere utilizzata per esaminare in dettaglio le relazioni di potere, gli allineamenti e le "traduzioni" che co-producono i sistemi organizzativi. Analogamente, altri autori come N.P. Gumede e B. Tladi hanno esaminato come l'ANT possa rendere il concetto di "sociale" più tangibile e analizzabile negli spazi tecnici, aiutando così gli ingegneri a comprendere le condizioni aperte e astratte che determinano il successo o il fallimento di un progetto tecnologico. Si nota, quindi, che la Teoria dell'attore-rete, pur distaccandosi dalle premesse ontologiche del Tavistock, ne raccoglie l'eredità, portando a compimento una disamina che supera la mera interazione tra due sistemi distinti per abbracciare la complessa co-costituzione di un'unica rete di attori.

La prospettiva ANT per l'analisi dell'AI

L'intelligenza artificiale (AI), nella sua incessante, multiforme e talvolta inquietante proliferazione, è emersa come una forza trasformativa pervasiva che ha innalzato il suo impatto a un livello inaspettato. Tale fenomeno, con una celerità che disorienta e un'influenza che travalica ogni previsione lineare, sta riconfigurando radicalmente ogni dimensione dell'esistenza umana e dell'organizzazione sociale contemporanea. Si osserva che l'incidenza dell'AI si estende dalla meticolosa e ossessiva razionalizzazione e ottimizzazione dei processi industriali e commerciali, con un impatto profondo sulle catene del valore e sulle dinamiche del mercato globale, fino alla personalizzazione algoritmica, spesso seducente e talvolta manipolatoria, delle esperienze di consumo. Tale penetrazione tecnologica si manifesta anche in una profonda modifica delle interazioni sociali più elementari, mediate da piattaforme digitali che impiegano algoritmi di AI per moderare i contenuti, connettere individui e influenzare la formazione delle comunità. Inoltre, si rileva una potenziale alterazione della natura stessa del pensiero, della conoscenza e della creatività umana, poiché l'AI non si limita a elaborare dati, ma partecipa attivamente alla generazione di nuove idee e alla strutturazione del sapere. In questo contesto, l'AI agisce come un catalizzatore di cambiamenti che mettono in discussione le nostre categorie analitiche e concettuali preesistenti, svelandone l'insufficiente aderenza alla complessità della realtà emergente. Nonostante la sua onnipresenza perentoria e il suo impatto indiscutibile, il discorso prevalente sull'AI, sia in ambito mediatico che in una non trascurabile parte della ricerca accademica, tende a rimanere ostinatamente intrappolato in cornici interpretative binarie, schematiche e spesso pericolosamente semplicistiche. Da un lato, emerge una narrativa di euforia tecnologica, che dipinge l'AI come la panacea universale capace di risolvere ogni problema sociale, economico e persino esistenziale, promettendo un futuro di abbondanza illimitata, efficienza automatizzata e progresso indefinito, quasi un'escatologia tecnocratica (Boden, 2016). Dall'altro lato, si consolida una contro-narrativa distopica, intrisa di allarmismo apocalittico e di una paura quasi atavica, che preconizza scenari di disoccupazione strutturale massiva, di perdita irrevocabile del controllo umano sulle macchine e di sorveglianza totalitaria e pervasiva (Brougham & Haar, 2018; Frey & Osborne, 2017).



La Reificazione dell'AI e il suo limite analitico

Queste visioni antitetiche, sebbene possano cogliere frammenti isolati di verità sulle potenziali direzioni future e sugli impatti multidimensionali dell'AI, si rivelano profondamente inadeguate, concettualmente limitate e analiticamente riduttive nel catturare la complessità ontologica, la multiformità funzionale e la dinamicità relazionale dell'interazione tra l'AI e l'intricato ecosistema socio-tecnico in cui essa è intrinsecamente radicata. Tali approcci tendono a reificare l'AI come un'entità monolitica e autonoma, slegata dal contesto di produzione e applicazione, ignorando le sue origini storiche e contestuali, i suoi processi di sviluppo iterativi, le negoziazioni politiche ed economiche, spesso occulte, che ne plasmano la forma e la funzione, e le pratiche sociali complesse attraverso cui viene adottata, adattata o, non di rado, risolutamente resistita. L'analisi superficiale che si limita a considerare l'AI come una variabile indipendente che impatta la società come un oggetto passivo, preclude una comprensione autenticamente profonda delle dinamiche in gioco. L'approccio dicotomico, infatti, trascura che l'AI non è un fenomeno neutro, ma un artefatto culturale e sociale, plasmato da valori, ideologie e interessi specifici. La capacità di comprendere come l'AI si integri organicamente nelle pratiche quotidiane, agisca da vettore per la riproduzione o la trasformazione delle strutture di potere preesistenti con nuove e sottili modalità, e co-produca forme emergenti e spesso inattese, persino paradossali, di organizzazione sociale e di esperienza individuale, rimane una sfida analitica di primario ordine per le scienze sociali contemporanee. L'analisi superficiale e la tendenza a dicotomie rigide (tecnologia vs. società, autonomia della macchina vs. controllo umano) impediscono una comprensione che possa penetrare la superficie del fenomeno per rivelarne l'intrinseca tessitura e la complessa interdipendenza.

Il Posizionamento della Actor-Network Analysis

Se finora si è discusso di come L’ANT possa essere un utile metodologia per l’analisi dell’AI, la definizione della posizione dell'ANT (ANT) all'interno del panorama dei livelli di conoscenza, pur esulando dagli scopi del presente saggio, è una scelta metodologica per garantire il rigore e la coerenza dell'analisi. Un inquadramento di questo tipo, infatti, non pretende di stabilire una gerarchia di valore, bensì chiarisce il dominio di applicabilità e le assunzioni che sostengono l'approccio. Questa precisazione è fondamentale per superare la trasparenza concettuale che, anziché illuminare i fondamenti euristici, rischia di render opaca la collocazione dell’ANT. La sua esplicita definizione nel quadro della collocazione dentro il dibattito scientifico previene un utilizzo superficiale, preservando la precisione euristica e la sua capacità di generare nuove comprensioni. Successivamente pertanto, per contestualizzare questo approccio, verrà presentato un paragrafo che, pur non essendo direttamente parte del corpo principale del saggio, fornisce un utile riferimento per la sua collocazione.

Epistemologie, teorie e metodologie in rapporto all’ANT

L'indagine sui complessi sistemi sociotecnici contemporanei, quali l'intelligenza artificiale, richiede l'utilizzo di apparati concettuali raffinati, in grado di superare i limiti delle dicotomie tradizionali. Il confronto tra le prospettive dell'epistemologia della complessità, delle teorie dei sistemi, del realismo filosofico e di approcci metodologici come l'ANT permette di delineare un quadro analitico rigoroso. Il presente paragrafo si propone di distinguere questi quadri di riferimento su tre livelli concettuali — epistemologico, teorico e metodologico — per poi analizzare le relazioni che li interconnettono, allo scopo di porre ordine rispetto i livelli di interpretazione e con l’opportuna chiarezza rispetto il livello in opera.

Livello epistemologico: quadri di riferimento per la conoscenza

Il livello epistemologico riguarda i principi fondamentali che guidano il processo di conoscenza, stabilendo le condizioni di possibilità e i limiti della nostra comprensione della realtà. Non si tratta di descrivere specifici fenomeni, ma di definire il modo in cui i fenomeni possono essere studiati:

  • L’epistemologia della complessità (Edgar Morin): questa prospettiva critica il paradigma riduzionista e frammentario della scienza classica. Morin sostiene la necessità di un "paradigma della complessità" capace di cogliere la multidimensionalità, l'interconnessione e l'incertezza dei sistemi. L'approccio non mira a eliminare la complessità, ma a pensarla, accettando che la conoscenza sia un processo dialogico tra ordine e disordine, organizzazione e caos. Si tratta di un'epistemologia che rompe con la logica lineare causa-effetto e abbraccia la visione di sistemi in cui le parti non possono essere comprese isolatamente dal tutto, e viceversa;

  • il realismo trascendentale (Roy Bhaskar): questo quadro epistemologico, nucleo del realismo critico, si oppone al costruttivismo radicale e all'empirismo positivista. Bhaskar distingue tra la realtà (il mondo dei meccanismi causali, indipendenti dalle nostre menti), il reale (gli eventi prodotti da tali meccanismi) e l'empirico (ciò che percepiamo e osserviamo). La conoscenza scientifica, in questa visione, non si limita a registrare gli eventi osservabili, ma deve indagare le strutture e i meccanismi profondi che li generano. Il Realismo Trascendentale offre, dunque, un fondamento epistemologico per lo studio delle scienze sociali e naturali che riconosce una realtà strutturata e stratificata, al di là della nostra immediata esperienza.

Livello teorico: modelli per descrivere la realtà

Il livello teorico comprende i modelli e i concetti utilizzati per descrivere specifici domini della realtà, a partire dalle assunzioni epistemologiche di fondo. Queste teorie forniscono il lessico e le categorie per analizzare i fenomeni:

  • la teoria generale dei sistemi (Ludwig von Bertalanffy): considerata un precursore del paradigma della complessità, questa teoria postula l'esistenza di principi universali che governano tutti i tipi di sistemi, siano essi biologici, sociali o tecnologici. L'enfasi è posta sulle relazioni di interdipendenza tra le parti di un sistema e sul concetto di "sistema aperto," che scambia materia ed energia con il proprio ambiente. Sebbene criticata per una visione a volte eccessivamente formalista e riduzionista, ha posto le basi per l'analisi sistemica;

  • la teoria dei sistemi autopoietici (Humberto Maturana e Francisco Varela): questa teoria rappresenta un'evoluzione specifica della teoria dei sistemi aperti, focalizzandosi sui sistemi viventi. Il concetto di "autopoiesi" (auto-produzione) descrive i sistemi come reti di processi che generano e realizzano i componenti che li costituiscono, mantenendo così la propria identità e organizzazione. L'autopoiesi sposta l'attenzione dalla nozione di "sistema aperto" a quella di sistema autonomo e circolare, la cui cognizione è definita come il processo stesso di auto-produzione;

  • la riflessione ontologica (Martin Heidegger): la filosofia di Heidegger in Essere e tempo rappresenta una delle riflessioni ontologiche più influenti del XX secolo. Il suo focus non è sull'ente (ciò che è), ma sull'Essere (il senso dell'essere stesso). La sua "ontologia fondamentale" ha ridefinito il modo di intendere il rapporto tra l'essere umano (Dasein) e il mondo, introducendo concetti come la "cura" e l'essere-nel-mondo, che sfidano la tradizionale dicotomia soggetto-oggetto e influenzano profondamente il pensiero contemporaneo, inclusi i dibattiti sul realismo;

  • il nuovo realismo (Maurizio Ferraris): in reazione alle correnti postmoderniste e decostruzioniste, Ferraris propone un'ontologia che riafferma l'esistenza di una realtà non condizionata dalle nostre interpretazioni o dai nostri schemi concettuali. Il "nuovo realismo" si fonda sulla distinzione tra "ontologia" (ciò che esiste indipendentemente dalle nostre menti) e "epistemologia" (come conosciamo ciò che esiste), sostenendo che non tutto è "costruito socialmente" e che una parte della realtà (reale) è ininterpretata e ininterpretabile;

  • le ontologie formali e computazionali: il termine, che si distingue dalle ontologie filosofiche, si riferisce a modelli formali e espliciti che descrivono i concetti e le relazioni in un dato dominio di conoscenza. Queste ontologie sono utilizzate nell'informatica per la gestione della conoscenza, l'integrazione dei dati e il ragionamento automatico, fornendo una struttura teorica per l'organizzazione delle informazioni digitali.

Livello metodologico: strumenti per l'indagine

Il livello metodologico si riferisce agli strumenti operativi e alle procedure che permettono di applicare le teorie e di condurre la ricerca:

  • l'ANT: sviluppata da Bruno Latour, Michel Callon e altri, non è una teoria sociologica nel senso tradizionale, ma un approccio metodologico per l'indagine dei sistemi sociotecnici. L'ANT opera sul principio della "simmetria generalizzata", trattando gli attori umani e non umani (gli "attanti," come algoritmi, documenti, infrastrutture) con lo stesso rigore analitico. L'obiettivo è tracciare le relazioni e le "traduzioni" che co-costituiscono una rete, analizzando come gli attanti si associano, mobilitano e stabilizzano altri elementi per formare una rete apparentemente coerente. Si concentra sul processo dinamico di costruzione delle relazioni piuttosto che sull'essenza degli attori.

Rapporti tra i livelli e inquadramento dell'ANT

I quadri concettuali esaminati non operano in compartimenti stagni, ma intrattengono complesse relazioni. L'epistemologia della complessità di Morin rappresenta un quadro generale che informa teorie come quella dei sistemi aperti, la quale, a sua volta, trova una specifica applicazione nei sistemi autopoietici di Maturana e Varela. Il realismo trascendentale di Bhaskar e il nuovo realismo di Ferraris offrono un fondamento ontologico che giustifica la ricerca di meccanismi causali o di una realtà indipendente, ponendosi in dialogo critico con la tradizione filosofica da Heidegger in poi.

L’ANT si colloca come un ponte cruciale tra questi livelli. Sebbene sia primariamente un approccio metodologico per l'indagine empirica, la sua metodologia è fondata su una chiara epistemologia e ontologia relazionale. L'ANT non è una teoria della complessità in sé, ma è uno strumento per investigare i sistemi complessi. L'ANT intrattiene un rapporto particolarmente significativo con l'epistemologia della complessità, poiché fornisce una metodologia pratica per la sua implementazione. L'attenzione dell'ANT verso le interconnessioni, l'eterogeneità degli attori e la dinamicità delle reti si allinea perfettamente con i principi di interdipendenza e co-evoluzione propugnati da Morin. In questo senso, l'ANT può essere vista come l'applicazione analitica dei principi della complessità ai fenomeni sociotecnici, offrendo un modo per "fare" ricerca in un'ottica complessa. Allo stesso tempo, l'ANT si confronta anche con il livello teorico, in particolare con la riflessione ontologica. Pur senza abbracciare un realismo forte, la sua enfasi sulla co-produzione della realtà tramite la rete risuona con il tentativo dei nuovi realismi di superare il costruttivismo, sebbene lo faccia non attraverso l'affermazione di una realtà preesistente, ma attraverso l'analisi di una realtà che si manifesta attraverso la rete stessa.



L’ANT per superare le aporie

Si è in precedenza segnalata la presenza di aporie analitiche e le dicotomie semplicistiche che caratterizzano il dibattito sull'intelligenza artificiale; a tal fine si è proposta come prospettiva analitica e metodologica, l’euristica dell’(ANT, sviluppata in origine da pensatori come Bruno Latour e Michel Callon. L'ANT fornisce un apparato concettuale robusto per analizzare la complessa e intricata realtà dei sistemi sociotecnici, offrendo un'alternativa radicale sia al determinismo tecnologico sia al costruttivismo sociale male informato. Il principio cardine di questa teoria è quello della simmetria generalizzata: si postula che sia gli attori umani (individui, organizzazioni, gruppi sociali) sia quelli non umani (artefatti tecnologici, algoritmi, banche dati, infrastrutture) debbano essere trattati con lo stesso vocabolario analitico. In questo approccio, l'AI non è un semplice strumento passivo, né un'entità autonoma e monolitica, ma un attante – un'entità che ha la capacità di agire e di influenzare il corso degli eventi all'interno di una rete. La realtà dell'AI emerge, quindi, non da una sua essenza intrinseca, ma dalla complessa rete di relazioni e interazioni nella quale è inserita. La forza dell'ANT risiede nella sua capacità di tracciare e descrivere il processo di traduzione, attraverso il quale la rete di attanti viene costruita e mantenuta. La traduzione è un processo in cui gli attori, sia umani che non umani, negoziano, associano e allineano i propri interessi. Per esempio, lo sviluppo di un algoritmo di raccomandazione non è solo un atto di programmazione, ma un processo di traduzione in cui gli interessi degli sviluppatori, il modello di business di un'azienda, le preferenze degli utenti (registrate nei dati) e le logiche tecniche dell'algoritmo stesso vengono tradotti e uniti in un assemblaggio sociotecnico. Attraverso questa lente, il controllo non risiede né esclusivamente nella volontà umana né nell'autonomia della macchina, ma è distribuito e negoziato all'interno della rete. La perdita di controllo, in questa prospettiva, è il risultato di un fallimento nella traduzione, dove alcuni attanti (come i valori etici o le preferenze degli utenti) non vengono adeguatamente iscritti o rappresentati all'interno della rete. L'applicazione dell'ANT al contesto dell'AI permette di superare la falsa dicotomia tra tecnologia e società. Il focus si sposta dall'analisi dell'AI in isolamento, alla sua "messa in azione" all'interno di contesti specifici. Invece di chiedere "Qual è l'impatto dell'AI sulla società?", si può porre una domanda più analiticamente fruttuosa come: "Come si costituisce la rete in cui opera un determinato sistema di AI? Chi sono gli attori, umani e non umani, che ne fanno parte? Come vengono tradotti e allineati i loro interessi? Quali effetti emergenti e inattesi produce questo specifico assemblaggio sociotecnico?" Questo approccio consente di investigare i meccanismi di potere non come un'entità esterna all'AI, ma come un elemento intrinseco alla sua stessa costruzione e operatività, consentendo di analizzare in profondità come l'AI possa riprodurre o amplificare bias e disuguaglianze sociali. L'ANT offre quindi gli strumenti concettuali per condurre un'analisi empirica che sia altrettanto rigorosa che sensibile alle sfumature, superando le semplificazioni del dibattito corrente e aprendo la strada a una comprensione autenticamente profonda delle dinamiche in gioco.

La dimensione ontologica: approccio e fondamento

L'ANT, lungi dall'essere una teoria esplicativa con leggi universali o variabili predittive, si configura più propriamente come un "metodo di indagine", una "sensibilità ontologica" radicalmente relazionale o una "sociologia delle associazioni" che guida l'analisi empirica con la precisione di un impianto concettuale rigoroso, in cui la conoscenza del sistema emerge attraverso un processo di indagine investigativo. Il suo imperativo metodologico, provocatorio nella sua semplicità, è "seguire gli attori stessi" (Latour, 2005) e tracciare le connessioni tra le entità, anziché imporre categorie o spiegazioni predefinite che potrebbero oscurare la dinamica del reale. L'obiettivo primario è rivelare come gli "effetti" di stabilità, ordine, potere, agenzia o conoscenza non siano proprietà intrinseche e statiche di un singolo attore o di una categoria (es. "la tecnologia" o "la società"), ma piuttosto emergano dinamicamente e contingentemente dalla complessa e incessante interazione e negoziazione all'interno della rete stessa. L'ANT si impegna a non presupporre gerarchie o distinzioni a priori, ma a indagare come queste vengono storicamente create, mantenute attraverso continue fatiche e talvolta contestate con veemenza. Considerando la natura rizomatica dell'elaborato, pare opportuno che l'analisi non proceda per compartimenti stagni, ma esamini le interconnessioni tra concetti che si espandono e si influenzano reciprocamente. La struttura del testo, infatti, non segue un percorso gerarchico e lineare, tipico del modello ad albero, ma si dispiega in una rete di nodi in cui l'ontologia filosofica, computazionale e relazionale si intersecano e si riconnettono continuamente.

Il concetto di rizoma, reso celebre da Gilles Deleuze e Félix Guattari in Millepiani: Capitalismo e Schizofrenia, offre un potente strumento filosofico per pensare la complessità superando i modelli di pensiero tradizionali. Sviluppato nel contesto del post-strutturalismo, un periodo di critica radicale alle gerarchie e alle narrazioni lineari, il rizoma si contrappone al modello ad albero, che organizza il sapere in modo gerarchico e con un'unica radice. Al contrario, il rizoma è una struttura sotterranea e orizzontale, dove ogni punto può connettersi a qualsiasi altro, senza un inizio o una fine definiti.

Le caratteristiche del rizoma, quali la connessione e l'eterogeneità (ogni punto può collegarsi a un altro di natura diversa), la molteplicità (non esiste un'unità o un'essenza da cui tutto deriva) e l'assenza di un centro, sono fondamentali per comprendere la logica del testo. L'elaborato non presenta i concetti di ontologia come rami derivanti da un'unica radice, ma li connette in una rete orizzontale. La teoria dell'attore-rete (ANT) non è il punto di arrivo, ma un nodo cruciale di questo rizoma, un punto di intersezione da cui si dipartono e a cui si riconnettono altre correnti di pensiero, dal realismo critico alla teoria dei sistemi. L'ANT non evolve in modo lineare, ma si nutre e dialoga con questi concetti, espandendo la rete di significati. La dimensione ontologica, in questo quadro, non è un'astrazione metafisica, ma la costante ridefinizione del reale che emerge dalle connessioni tra gli attori. Questa prospettiva rizomatica è essenziale per analizzare fenomeni complessi come l'intelligenza artificiale. Attraverso la lente dell'ANT, l'IA non è indagata come un'entità isolata, ma come un nodo in una rete di relazioni che include programmatori, dati, utenti e infrastrutture. In questo modo, l'analisi diviene un processo rizomatico, che traccia le connessioni e le interdipendenze per cogliere la dinamica del reale in tutta la sua complessità

Ontologie a confronto: dalla sostanza alla relazione

Il dibattito sull'intelligenza artificiale (AI) e la responsabilità che ne deriva ci spinge a riconsiderare i fondamenti stessi del nostro modo di intendere la realtà, ovvero l'ontologia. Tradizionalmente, l'ontologia, branca della filosofia che si interroga su "che cosa esiste", si è basata su concetti chiave che ora vengono messi in discussione dalla complessità dei sistemi sociotecnici moderni.

Il dibattito sull'intelligenza artificiale (AI) e la responsabilità che ne deriva ci spinge a riconsiderare i fondamenti stessi del nostro modo di intendere la realtà, ovvero l'ontologia. Tradizionalmente, l'ontologia, branca della filosofia che si interroga su "che cosa esiste", si è basata su concetti chiave che ora vengono messi in discussione dalla complessità dei sistemi sociotecnici moderni.

L'ontologia classica, con radici che affondano in pensatori come Aristotele e si sviluppano attraverso la filosofia medievale e moderna, si concentra sull'idea di sostanza. In questa prospettiva, le entità esistono in modo autonomo e indipendente. La realtà è composta da "oggetti" discreti, dotati di proprietà intrinseche e di una propria essenza. Le relazioni tra questi oggetti sono considerate accidentali o esterne, non costitutive della loro identità. L'uomo, in questa visione, è spesso concepito come un soggetto autonomo e razionale, separato dagli oggetti che lo circondano. Questa visione ontologica influenza profondamente il modo in cui ci approcciamo all'AI. Tendiamo a vederla come un oggetto o uno strumento inerte, le cui azioni sono interamente determinate dai suoi creatori o utilizzatori. La responsabilità, in questo schema, ricade interamente sul soggetto umano che ha progettato, implementato o utilizzato l'AI. Tuttavia, l'opacità algoritmica, l'autonomia che i sistemi di AI sembrano sviluppare e la loro capacità di produrre esiti inattesi mettono in crisi questa distinzione netta tra soggetto e oggetto, rendendo complessa l'attribuzione della responsabilità

Ontico e Ontologico: da Heidegger all'analisi sistemica

L'origine della distinzione tra "ontico" e "ontologico" si colloca nel pensiero del filosofo Martin Heidegger, in particolare nella sua opera fondamentale, Essere e Tempo. In questo contesto, l'indagine filosofica si concentra sulla "questione del senso dell'Essere", un'impresa che Heidegger definisce "ontologia" in senso proprio.

  • L'Ontico: il termine "ontico" si riferisce all'essere di un ente, ovvero alla sua esistenza concreta e fattuale. Esso riguarda l'indagine su ciò che un ente è, le sue proprietà, le sue funzioni e le sue caratteristiche specifiche. Un approccio ontico si limita a descrivere e analizzare gli enti nel loro manifestarsi, senza porsi la domanda sul loro fondamento o sul senso stesso del loro essere. Ad esempio, una descrizione ontica di una sedia ne analizza la forma, il materiale, la funzione d'uso. Analogamente, nel campo dell'informatica, un'analisi ontica si concentra sugli aspetti tangibili e funzionali di un sistema: il codice sorgente, l'hardware, la struttura dei dati, le prestazioni computazionali e l'interfaccia utente.

  • L'Ontologico: il termine "ontologico", al contrario, si riferisce all'indagine sull'Essere stesso che fonda e rende possibile l'essere degli enti. L'indagine ontologica non si accontenta di descrivere gli enti, ma si chiede in che modo essi esistano e in che modo il loro essere si manifesti. Essa è una domanda sui fondamenti, sulle strutture che rendono possibile la comprensione dell'essere in quanto tale. Applicato all'informatica, l'ontologico non si limita a esaminare un algoritmo, ma si interroga sulla natura dell'automazione, sul ruolo dell'agenzia computazionale, sul significato dell'intelligenza artificiale e sul suo impatto sulla ridefinizione dell'essere umano. Un'indagine ontologica non chiederebbe "come funziona questo algoritmo?", ma piuttosto "che cosa significa che questo algoritmo 'prenda una decisione' o 'impari'?" o "in che modo l'esistenza di questo sistema artificiale riconfigura la nostra comprensione del “pensare' e dell''agire”?

La distinzione tra ontico e ontologico si rivela pertanto fondamentale per l'analisi critica di qualsiasi tecnologia, inclusa l'Intelligenza Artificiale. Essa permette di superare la mera descrizione delle funzionalità (ontico) per giungere a una riflessione più profonda sulle implicazioni e sui fondamenti del "essere" della tecnologia stessa.

Ontologia computazionale e ingegneria della conoscenza

In informatica, il termine "ontologia" viene utilizzato in un senso significativamente diverso da quello filosofico, sebbene vi sia un legame etimologico. L'ontologia computazionale, in questo campo non è una disciplina metafisica, ma uno strumento di ingegneria della conoscenza.

Un'ontologia in informatica è definita come una "specificazione esplicita e formale di una concettualizzazione" (Gruber, 1993). In altre parole, si tratta di una rappresentazione strutturata e formalizzata di un dominio di conoscenza, che include:

  • Classi o concetti: le entità rilevanti nel dominio (es. "veicolo", "persona", "malattia").

  • Relazioni: i modi in cui i concetti sono collegati tra loro (es. "ha_motore", "causa", "è_parte_di").

  • Attributi: le proprietà dei concetti (es. "velocità" di un veicolo, "età" di una persona”).

  • Assiomi: le regole logiche che governano le relazioni e i concetti, garantendo coerenza.

L'obiettivo principale è la condivisione e il riutilizzo della conoscenza tra agenti software e umani. Essa fornisce un vocabolario comune e una struttura semantica che permette a sistemi diversi di scambiarsi dati e inferire nuove informazioni in modo automatico. Un esempio è un'ontologia medica che definisce la relazione tra sintomi, malattie e trattamenti, consentendo a diversi software clinici di interoperare. Come si nota, l'ontologia in informatica è un'entità ontica, nel senso heideggeriano, in quanto si limita a descrivere e categorizzare gli enti (le entità di un dominio di conoscenza) senza interrogarsi sul fondamento del loro essere. Essa si concentra sulla struttura e sulla formalizzazione, non sulla metafisica. Tuttavia, l'atto stesso di creare un'ontologia, scegliendo quali concetti includere e come relazionarli, è un'operazione che ha implicazioni ontologiche, poiché riflette e plasma una determinata visione del mondo.

Ontologia relazionale: oltre il dualismo soggetto-oggetto

Il concetto di "ontologia relazionale" emerge in opposizione alle ontologie tradizionali, che concepiscono la realtà come composta da sostanze preesistenti, siano esse soggetti o oggetti. Questo approccio teorico, fortemente associato all'ANT, proposta da pensatori come Bruno Latour e Michel Callon , sostiene che la realtà non è fatta di entità isolate, ma di "reti di attori" (actor-networks) e che l'essere (e l'agency) delle entità non è una loro proprietà intrinseca, ma un effetto emergente delle loro interrelazioni. Ciò fonda due principali concetti dell’ANT:

  • superare il dualismo: l'ontologia relazionale si fonda sul "principio di simmetria generalizzata", il quale impone di trattare "simmetricamente" umani e "nonumani" (come l'Intelligenza Artificiale, gli artefatti tecnologici, i dati) come attori o actanti a pieno titolo all'interno di una rete. La capacità di agire ("agency") non risiede né nel soggetto umano né nell'oggetto non-umano, ma "appartiene... alla relazione che essi instaurano";

  • l'Ibridità: l'ANT, di conseguenza, ci spinge a considerare il mondo come popolato da "ibridi", entità che non sono né puramente umane né puramente non-umane. L'Intelligenza Artificiale, in questa prospettiva, non è un semplice strumento, ma un "quasi-oggetto" o un "quasi-soggetto", un'entità che media e plasma attivamente le relazioni sociali. I sistemi di AI sono "entità prodotte in associazioni tra i primi e i secondi". L'agency dell'AI non è il prodotto di una sua "intelligenza" autonoma, ma è intrinsecamente legata alle complesse "associazioni" che essa instaura con programmatori, dati di addestramento, utenti, infrastrutture tecnologiche e contesti normativi. In questo senso, l'ontologia relazionale ci permette di analizzare il "essere" dell'AI non come un'entità statica, ma come un fenomeno dinamico e in continua co-produzione.

L'Onticità: la specificità del modo di essere dell’AI

  • Il termine "onticità", sebbene meno comune, può essere inteso come la caratteristica o la qualità specifica di un ente di possedere un particolare "modo di essere"; il concetto di onticità si applica alla peculiarità di un ente, ovvero ciò che lo rende ciò che è, in opposizione alla generica questione dell'Essere (ontologico). Applicato all'Intelligenza Artificiale, il concetto di onticità si interroga sulle caratteristiche che definiscono il "modo di essere" di un agente artificiale. Qual è la sua specificità esistenziale rispetto ad altri enti, sia umani che non-umani? In questo senso, possiamo identificare alcuni aspetti che costituiscono l'onticità di un agente di Intelligenza Artificiale:

  • l'agire per delega: l'onticità di un agente AI risiede nel suo essere una "delega" di agenzia e capacità d'azione all'interno di una complessa rete umana e infrastrutturale. Questo non implica un'autonomia assoluta, ma un'autonomia "situata" e circoscritta, dipendente da un contesto specifico; essa è pertanto sempre sottoposta a vincoli che ne definiscono l’ambito di azione, e le dinamiche “sapere-potere” (Foucault M. 1975, 1976, 1977);

  • l'Iscrizione e l'algoritmizzazione: il modo di essere di un agente AI è inscritto nel suo codice, nei suoi dati e nella sua architettura algoritmica. Questa "iscrizione" non è un semplice processo passivo, ma la materializzazione di un programma d'azione che indirizza e struttura il comportamento degli altri attori nella rete;

  • l'Ibridità performativa: l'onticità dell'AI è anche la sua capacità di agire come "quasi-oggetto" e mediatore, influenzando attivamente le relazioni sociali e le pratiche professionali. Essa ha un modo di essere ibrido, in cui il suo lato tecnico e il suo lato sociale sono inseparabili e co-costitutivi. L'onticità di un sistema di "gestione algoritmica" risiede, ad esempio, nel suo essere una forma di controllo che è "distribuita e negoziata attraverso la rete".

In sintesi, il "modo di essere" di un agente di Intelligenza Artificiale non è quello di un essere cosciente, ma di un ente relazionale, performativo e intrinsecamente ibrido, la cui esistenza è definita dalle sue interconnessioni con l'ambiente socio-tecnico e dalle sue capacità di mediazione e trasformazione della realtà.

L'ANT: una lente focale relazionale

Per superare i limiti di questa visione statica e dicotomica, l’ANT propone un'ontologia radicalmente differente, di tipo relazionale. L'ANT non si chiede "che cosa è?", ma "chi o che cosa è collegato a che cosa?".

I principi fondamentali di questa ontologia relazionale sono i seguenti:

  • priorità delle relazioni: a differenza delle ontologie tradizionali, le relazioni non sono viste come un'appendice degli oggetti, ma come ciò che li costituisce. Un'entità – che sia un essere umano, un algoritmo o un'infrastruttura – è definita dal suo posto e dalle sue interazioni all'interno di una rete. La sua identità non è fissa, ma emerge dalle sue connessioni;

  • interdipendenza: in questa prospettiva, le entità non sono autonome e indipendenti. Sono, al contrario, interdipendenti e si co-costituiscono a vicenda attraverso le loro relazioni. Il cambiamento in una connessione può alterare l'identità di tutti gli elementi coinvolti;

  • processo, non sostanza: l'attenzione si sposta dall'essenza statica delle entità al processo dinamico della loro costruzione e interazione. Le entità sono in continuo divenire, modellate dalle interazioni nel tempo;

  • superamento del dualismo soggetto-oggetto: l'ANT sfida la rigida separazione tra soggetto umano e oggetto tecnologico. Riconosce che entrambi sono "attanti" coinvolti in una rete di relazioni reciproche, in cui entrambi influenzano e sono influenzati.

In questo contesto, l'AI non è uno strumento passivo. È un agente attivo che interagisce con gli umani e l'ambiente circostante. L'algoritmo non si limita a eseguire un comando, ma, attraverso i suoi processi e le sue interazioni, contribuisce a plasmare la rete di relazioni in cui è inserito. Questa prospettiva aiuta a superare la visione riduzionista dell'AI come semplice strumento, riconoscendone la sua capacità di agire e di generare effetti autonomi.

Cautele nella disamina della teoria dell'attore-rete

Una rigorosa disamina della teoria dell'attore-rete (ANT) esige una valutazione critica delle sue premesse ontologiche e delle sue implicazioni metodologiche. Sebbene l'ANT offra un quadro analitico potente per l'indagine dei sistemi sociotecnici, la sua applicazione solleva una serie di cautele e critiche che meritano di essere considerate con la dovuta attenzione. Lungi dal voler invalidare il framework, tali osservazioni contribuiscono a delineare i suoi confini e a promuovere un impiego più consapevole e rigoroso.

In primo luogo, una delle obiezioni sollevate con maggiore frequenza verte sulla natura stessa dell'ANT. Diversi studiosi sostengono che essa non si configuri come un'ontologia nel senso tradizionale del termine, poiché non fornisce una descrizione sistematica delle categorie fondamentali dell'essere o dei principi che governano la realtà. Come argomentato da John Law (1999), l'ANT è più correttamente intesa come una "sensibilità metodologica" o un approccio pratico per l'analisi delle relazioni, anziché un'ontologia compiuta che ne descrive la struttura. Questa distinzione è cruciale per evitare ambiguità e per posizionare correttamente l'ANT nel panorama teorico.

Da un punto di vista pratico, l'ANT è talvolta oggetto di critiche per la tendenza a produrre descrizioni eccessivamente complesse e di scarsa utilità. L'aspirazione a rappresentare in modo denso e capillare le reti può generare analisi poco accessibili, che mancano di astrazione e di generalizzazione, limitando la loro applicabilità a contesti più ampi. Infine, un'ulteriore preoccupazione riguarda il rischio di un determinismo relazionale, in cui l'individuo è percepito come completamente determinato dalle relazioni in cui è inserito, senza possibilità di cambiamento o di azione autonoma. I concetti di ontico, ontologico, ontologia relazionale e onticità, pur provenendo da ambiti diversi, offrono un quadro concettuale robusto e prudente per un'analisi approfondita dell'Intelligenza Artificiale. Superare le descrizioni meramente ontiche (cosa fa l'AI) per giungere a una riflessione ontologica (che cosa significa l'AI per l'Essere) è il primo passo per una comprensione critica e responsabile. L'ontologia relazionale, fornita in particolare dall'ANT, ci costringe a guardare all'AI non come a un ente isolato, ma come a una complessa rete di relazioni, un "ibrido" che co-determina la realtà sociale in cui è immerso. Infine, il concetto di onticità ci permette di focalizzarci sulle specifiche caratteristiche che definiscono il "modo di essere" di questi agenti, svelando la loro natura di mediatori, attori e delegati di potere. L'integrazione di questi approcci metodologici e filosofici consente di tracciare una concettuale per navigare le complessità dell'AI e per affrontare in modo più articolato e rigoroso le sfide etiche e sociali che essa pone.

Da un punto di vista pratico, l'ANT è talvolta oggetto di critiche per la tendenza a produrre descrizioni eccessivamente complesse e di scarsa utilità. L'aspirazione a rappresentare in modo denso e capillare le reti può generare analisi poco accessibili, che mancano di astrazione e di generalizzazione, limitando la loro applicabilità a contesti più ampi. Infine, un'ulteriore preoccupazione riguarda il rischio di un determinismo relazionale, in cui l'individuo è percepito come completamente determinato dalle relazioni in cui è inserito, senza possibilità di cambiamento o di azione autonoma. I concetti di ontico, ontologico, ontologia relazionale e onticità, pur provenendo da ambiti diversi, offrono un quadro concettuale robusto e prudente per un'analisi approfondita dell'Intelligenza Artificiale. Superare le descrizioni meramente ontiche (cosa fa l'AI) per giungere a una riflessione ontologica (che cosa significa l'AI per l'Essere) è il primo passo per una comprensione critica e responsabile. L'ontologia relazionale, fornita in particolare dall'ANT, ci costringe a guardare all'AI non come a un ente isolato, ma come a una complessa rete di relazioni, un "ibrido" che co-determina la realtà sociale in cui è immerso. Infine, il concetto di onticità ci permette di focalizzarci sulle specifiche caratteristiche che definiscono il "modo di essere" di questi agenti, svelando la loro natura di mediatori, attori e delegati di potere. L'integrazione di questi approcci ANT: verso la simmetria analitica

Il concetto di "actante" si erge a pietra angolare, del lessico e della metodologia ANT. Un actante è definito in modo sorprendentemente ampio come "qualcosa che agisce o a cui viene concesso di agire da altri" (Jackson, 2015, p. 30), e, crucialmente, questa capacità di agire non è limitata agli esseri umani. Tale definizione si estende a entità "nonumane", una categoria estremamente vasta che include, in una sorta di elenco quasi borgesiano, artefatti tecnologici come sistemi di Intelligenza Artificiale, data digitali (strutturati e non, con le loro intrinseche "vite" e influenze), infrastrutture fisiche (server, cavi sottomarini, data center come cattedrali della modernità), concetti scientifici astratti (teorie, modelli matematici, algoritmi come entità quasi viventi), documenti (brevetti, articoli scientifici come iscrizioni del sapere), istituzioni (leggi, regolamenti come codificazioni di volontà) e persino organismi biologici (virus, batteri, animali con le loro interazioni inattese) (Strum & Latour, 1987; Latour, 1988a; Callon, 1986a). L'unico criterio distintivo, per essere riconosciuto come actante, è la capacità di produrre una differenza, di introdurre un cambiamento, di modificare lo stato delle cose, o di influenzare il corso degli eventi all'interno di una rete di relazioni. Non è richiesta intenzionalità, coscienza o qualsivoglia "volontà" nel senso umano; basta la performatività di una differenza. Questa radicale inclusione dei nonumani come attori a pieno titolo è sostenuta dal "principio di simmetria generalizzata", uno degli assiomi più distintivi, e spesso provocatoriamente controversi, dell'ANT (Latour, 1987). Questo principio impone al ricercatore l'obbligo metodologico, quasi un precetto epistemologico, di trattare "simmetricamente" umani e nonumani, attribuendo agency e capacità di trasformazione della rete a entrambi senza privilegiare a priori una categoria sull'altra attraverso spiegazioni a senso unico (ad esempio, attribuendo tutto il potere alla tecnologia o viceversa, in un circolo vizioso riduttivo).

L'obiettivo non è affermare, che i nonumani possiedano "intenzioni", "coscienza" o "libero arbitrio" come gli esseri umani, ma piuttosto riconoscere che essi "fanno cose", esercitano una forza causale, mediano le interazioni sociali, abilitano o inibiscono certe azioni, e quindi partecipano attivamente alla tessitura del sociale (Verbeek, 2005; Sayes, 2014). Essi non sono semplici strumenti passivi nelle mani dell'uomo, ma co-costituenti attivi e ineliminabili della realtà sociale, quasi come co-autori del dramma umano.

Nell'ambito dell'AI, questa prospettiva si rivela particolarmente illuminante e analiticamente potente. I sistemi di Intelligenza Artificiale, specialmente gli "agenti artificiali intelligenti autonomi" (Florian, 2003) che operano con un elevato grado di indipendenza decisionale, di auto-ottimizzazione e di adattamento dinamico, sono esempi paradigmatici di actanti nonumani di straordinaria efficacia. Consideriamo un algoritmo di AI di trading finanziario ad alta frequenza (HFT): progettato con l'obiettivo esplicito di massimizzare i profitti attraverso l'identificazione di opportunità di arbitraggio e l'esecuzione di transazioni a velocità sub-millisecondo, esso opera su scale e velocità inimmaginabili, quasi abissali, per un operatore umano. Le sue reazioni immediate a minime fluttuazioni del mercato, basate su modelli predittivi complessi e sull'analisi di petabyte di data in tempo reale, possono innescare fenomeni di "flash crash" (improvvisi e drastici cali dei mercati) o di bolle speculative, producendo effetti destabilizzanti e imprevedibili sui mercati finanziari globali (Florian, 2003). In questo scenario, l'algoritmo non è un mero strumento che esegue istruzioni predefinite, bensì un agente autonomo; esso esercita un'agenzia che va ben oltre la pura esecuzione programmata, influenzando attivamente e modellando le dinamiche economiche, la fiducia degli investitori e la stabilità sistemica stessa. La sua "autonomia" non è un'assoluta indipendenza, ma una delega di capacità d'azione all'interno di una complessa rete umana e infrastrutturale.

Un altro esempio eloquente, e spesso problematico, è un sistema di moderazione dei contenuti basato sull'AI impiegato dalle piattaforme di social media: benché progettato con l'intento lodevole di ridurre la diffusione di discorsi d'odio, disinformazione virulenta o contenuti grafici violenti, esso può inaspettatamente o eccessivamente censurare discussioni legittime, espressioni artistiche complesse, commenti satirici o proteste sociali, basandosi su criteri che possono essere opachi, contestualmente insensibili o intrinsecamente "biased" (Florian, 2003, p. 76). Questo comporta effetti profondi sul dibattito pubblico, sulla libertà di espressione, sulla visibilità di determinate voci e sulla percezione della piattaforma stessa come spazio di dialogo libero o, al contrario, come un campo controllato. Inoltre, questi sistemi di moderazione, interagendo con milioni di utenti e miliardi di contenuti, non solo applicano regole, ma contribuiscono a creare e ridefinire il concetto stesso di "discorso accettabile" o "contenuto dannoso" su vasta scala, una performatività che va ben oltre la loro programmazione iniziale, quasi una forma di legislazione algoritmica. Questi esempi dimostrano con chiarezza che l'AI non è una semplice estensione delle capacità umane o un mero "oggetto" passivo sul palcoscenico sociale; essa è un actante dotato di una propria e specifica capacità di azione, che produce effetti concreti, a volte sorprendenti, non intenzionali e persino controintuitivi, sul mondo e sulle relazioni umane e inter-organizzative. L'ANT ci consente, quindi, di analizzare l'AI non come un oggetto statico o un'entità unidimensionale, ma come un'entità dinamica, performativa e intrinsecamente relazionale, le cui azioni e i cui impatti emergenti non possono essere compresi isolatamente, ma solo attraverso la loro complessa interazione e connessione all'interno di una rete più ampia che include inestricabilmente elementi tecnici, sociali, economici, politici e culturali (Sayes, 2014; Verbeek, 2005). La sua agenzia è distribuita e co-prodotta dalle sue incessanti connessioni.

Le reti di attori (Actor-Networks): la dimensione relazionale, distribuita negoziata dell'AI in azione

Una "rete di attori" (actor-network) in ANT non è da intendersi come una semplice aggregazione di elementi discreti, né come una struttura sociologica predefinita e statica (come una classe sociale o un'organizzazione gerarchica). È, al contrario, una configurazione specifica, contingente e profondamente instabile di attori eterogenei (umani e nonumani) che sono interconnessi in una trama dinamica, una sorta di tessuto dove i reciproci interessi – spesso inizialmente divergenti, conflittuali o non allineati – si negoziano, si confrontano, o vengono incessantemente trasformati per convergere verso un "programma d'azione" comune o per mantenere una certa stabilità (Latour, 1987). Queste reti sono entità intrinsecamente dinamiche, instabili, fluide e costantemente in formazione, deformazione e rifomazione. La loro stabilità, la loro coesione o la loro "solidità" non sono caratteristiche intrinseche date a priori o garantite, ma sono effetti emergenti e temporanei della loro capacità di "tenere insieme" i loro componenti, di allinearli e di farli agire in modo coerente e sinergico (Latour, 2005). La forza di una rete risiede non nella sua dimensione assoluta o nella sua complessità intrinseca, ma nella sua capacità di "tradurre" efficacemente gli interessi disparati dei suoi membri in un programma d'azione comune, mobilitando risorse materiali e simboliche, e consolidando alleanze che conferiscono, seppur transitoriamente, stabilità. Questa prospettiva sottolinea con forza che il "sociale" non è una sostanza preesistente, un contenitore passivo o una variabile indipendente, ma è incessantemente prodotto, mantenuto e trasformato in modo relazionale da queste connessioni eterogenee. Il sociale è il "filamento" quasi invisibile che emerge dal connettersi e dal dispiegarsi delle entità.

Applicare questo concetto all'AI significa riconoscere che nessun sistema di intelligenza artificiale opera in un vuoto isolato o come un'entità autosufficiente, dotata di un'esistenza monadica. L'AI è sempre e ineludibilmente "embedded" e incorporata in una fitta, dinamica e spesso invisibile trama di relazioni socio-tecniche. Tutti questi elementi — algoritmi sofisticati, infrastrutture computazionali globali, database massivi e diversificati, professionisti umani con la loro expertise, istituzioni con le loro procedure e gerarchie, clienti con le loro specifiche aspettative — formano una complessa, interdipendente e costantemente negoziata "actor-network". Il successo, la fallibilità, o l'impatto trasformativo di un'implementazione AI in un contesto così critico dipendono intrinsecamente dalla capacità di questa rete di "tenere" insieme i suoi actanti, di farli agire in modo coerente e sinergico, di gestire le interruzioni, di assorbire le resistenze e di adattarsi ai cambiamenti in un processo di co-evoluzione. La crescente enfasi sulla "collaborazione uomo-AI" (human-AI collaboration) nelle organizzazioni contemporanee (Jarrahi, 2018; Walsh et al., 2019) è un esempio eloquente di come le capacità umane e quelle algoritmiche non solo si integrino in una relazione simbiotica, ma co-evolvano e si ridefiniscano reciprocamente all'interno di tali reti. Questa interazione dà vita a nuove forme di produzione, di organizzazione del lavoro, di ridefinizione delle competenze professionali e persino di nuove configurazioni di responsabilità e controllo. La rete non è statica; è in continuo divenire, plasmata e rimodellata dalle interazioni incessanti dei suoi componenti, come un organismo vivente.

Traduzione, iscrizione e arruolamento: i processi dinamici di costruzione, stabilizzazione e riconfigurazione dell'AI nel sociale

La "traduzione" è il processo chiave e il meccanismo euristico fondamentale attraverso il quale le reti di attori sono assemblate, stabilizzate, e infine rese operative e coerenti. Questo processo dinamico e intrinsecamente politico, articolato con grande precisione analitica da Michel Callon (1986a, 1991, 1999), non è una mera trasposizione neutra di significati da un linguaggio all'altro; è, al contrario, una complessa serie di azioni che comportano la negoziazione, l'allineamento e la trasformazione degli interessi degli attori, portando a nuove configurazioni e consolidamenti della rete. La traduzione è un processo di "deformazione" che rende possibile l'esistenza stessa della rete. Comprende quattro momenti principali, spesso interconnessi, iterativi e non necessariamente strettamente sequenziali:

  • problematizzazione: in questa fase iniziale, un attore (spesso l'innovatore, il "promotore" di una tecnologia, o il gruppo di ricerca dietro un sistema AI) si sforza di rendersi indispensabile per gli altri. Lo fa definendo e formulando un problema stringente, una lacuna critica, o un'opportunità strategica di vasta portata che altri attori della rete devono imperativamente affrontare o sfruttare. Contestualmente, propone una soluzione (spesso incarnata nella tecnologia AI che sta sviluppando o promuovendo) che lo posizioni in modo inequivocabile al centro di questa soluzione e del suo sviluppo, rendendo gli altri attori dipendenti da lui per risolvere il problema identificato, creando un "passaggio obbligato" (obbligatory passage point). Ad esempio, un'azienda di software specializzata in soluzioni AI per il settore e-commerce potrebbe "problematizzare" la cronica incapacità delle aziende di gestire in modo efficiente ed efficace le migliaia di richieste di customer service in entrata, i ritorni di prodotto complessi o le lamentele dei clienti, proponendo un sistema di chatbot AI avanzato e unificato come la soluzione indispensabile per automatizzare il 70% delle interazioni, ottimizzare le operazioni e migliorare drasticamente la soddisfazione del cliente, quasi una promessa di redenzione operativa. La problematizzazione definisce sia il problema che il "passaggio obbligato" attraverso il quale gli altri attori devono passare per raggiungere i loro obiettivi, creando una dipendenza strutturale.

  • interesse: una volta formulata la problematizzazione, l'obiettivo diventa quello di "interessare" attivamente gli altri attori della rete. Ciò significa convincerli che il loro interesse specifico (es. riduzione dei costi operativi, aumento dei profitti, miglioramento della reputazione aziendale, maggiore efficienza dei processi, acquisizione di nuovi strumenti competitivi, miglioramento della qualità del servizio, riduzione dello stress per gli operatori umani) coincide strategicamente con l'adozione della soluzione proposta dall'attore centrale. Questo processo di "interessamento" può avvenire attraverso una serie di tattiche, sottili e manifeste: dimostrazioni di efficacia (proof-of-concept) con dati convincenti, studi di fattibilità dettagliati che proiettano benefici economici tangibili, la presentazione di prototipi funzionali che mostrano le capacità del sistema in scenari reali, testimonianze di successo da parte di "early adopters", o l'offerta di incentivi per l'adozione, quasi un'esca irresistibile. L'azienda AI deve quindi "interessare" i dirigenti (mostrando un ROI elevato e un vantaggio competitivo), i manager operativi (garantendo maggiore efficienza e riduzione del carico di lavoro), gli operatori del customer service (promettendo di liberarli da compiti ripetitivi per concentrarsi su casi più complessi e gratificanti), e gli investitori (presentando un potenziale di crescita del mercato);

  • arruolamento: questa fase consiste nella mobilitazione attiva del supporto e nella costruzione di alleanze solide e durature tra gli attori interessati. L'arruolamento comporta la negoziazione e la trasformazione degli interessi, delle identità e dei ruoli degli altri attori per allinearli al programma d'azione dell'attore centrale. Si "arruolano" gli utenti finali di un sistema AI attraverso lo sviluppo di interfacce utente intuitive, ergonomiche e facili da usare; i tecnici attraverso una documentazione chiara, API ben definite e supporto tecnico continuo; i dipendenti attraverso programmi di formazione mirati che sviluppano nuove competenze ("reskilling" e "upskilling") e politiche aziendali che incentivano l'adozione e l'integrazione della nuova tecnologia nel flusso di lavoro quotidiano. L'arruolamento non è mai un processo passivo o imposto, ma richiede un'attiva partecipazione, un continuo modellamento reciproco e spesso dei compromessi. Ad esempio, l'AI può essere riprogettata per meglio adattarsi ai flussi di lavoro esistenti, o i lavoratori possono modificare le loro pratiche per sfruttare al meglio le capacità dell'AI, in una sorta di co-evoluzione;

  • mobilizzazione: la fase finale della traduzione assicura che i portavoce (gli actanti che rappresentano la rete, siano essi persone, documenti o dispositivi tecnologici) rappresentino effettivamente le collettività di attori a cui fanno riferimento e che la rete sia in grado di agire come un'unità coerente e performante. Significa che il sistema AI deve funzionare effettivamente nel modo previsto, dimostrando che la "promessa" iniziale si traduce in effetti reali, tangibili e misurabili. In questa fase, gli alleati precedentemente arruolati devono rimanere tali e continuare a supportare la rete. Una mobilizzazione di successo rafforza la rete, consolida le alleanze e rende le traduzioni precedenti più irreversibili, trasformando la rete da un'entità fragile e contingente a una struttura relativamente stabile e duratura, quasi un nuovo status quo. Se un sistema AI di raccomandazione per lo shopping online, ad esempio, riesce a incrementare significativamente le vendite e la soddisfazione dei clienti, ciò conferma la validità delle traduzioni precedenti e stabilizza la rete che lo supporta.

L'"iscrizione" è il risultato materiale e tangibile di una traduzione; è un segno, un artefatto, una pratica, una regola o un dispositivo che incorpora un programma d'azione, un interesse, una relazione specifica o una determinata forma di sapere (Latour, 1992). È la concretizzazione fisica e simbolica di una relazione tradotta e stabilizzata, un dispositivo attraverso cui le azioni e le proprietà degli attori vengono stabilizzate e rese più durature. Il codice sorgente di un algoritmo AI, i suoi modelli di dati (spesso contenenti "bias" impliciti, cioè pregiudizi che riflettono disuguaglianze sociali o incompletezze nei dati di addestramento), le interfacce utente grafiche (GUI), i protocolli di comunicazione, le basi di conoscenza, e persino le metriche di performance che vengono monitorate e ottimizzate, sono tutte "iscrizioni" di queste complesse traduzioni. Ad esempio, i "bias" algoritmici – quelle inclinazioni sistemiche, pregiudizi involontari o discriminazioni incorporate nei sistemi di AI a causa di data di addestramento non rappresentativi, di scelte di design non neutrali o di assunzioni implicite dei progettisti – discussi ampiamente nel contesto della giustizia predittiva, dei sistemi di recruiting automatizzato o delle diagnosi mediche (Walsh et al., 2019), possono essere visti non come "errori" tecnici, ma come "traduzioni fallite" o, più precisamente, come "iscrizioni distorte" di interessi e valori. Essi emergono quando gli interessi o le caratteristiche di alcuni gruppi sociali vengono ignorati, mal rappresentati, sottovalutati o persino stigmatizzati nel processo di raccolta dei data, nella fase di ingegneria delle funzionalità (feature engineering), nella scelta del modello algoritmico o nella fase di calibrazione. L'analisi ANT rivela le negoziazioni, i conflitti di interessi, i compromessi, le esclusioni e le inclusioni che sottostanno all'apparente oggettività o neutralità di un sistema AI, mettendo in luce le forze sociali, economiche e politiche che ne modellano la sua presunta "intelligenza" e i suoi impatti reali, sia positivi che negativi. La traduzione e l'iscrizione sono quindi processi dinamici e intrinsecamente politici che rivelano la costruzione sociale e materiale dell'AI.



Black box e puntualizzazione: l'opacità, la semplificazione e la percezione sociale e istituzionale dell'AI.

In ANT, una "black box" non è semplicemente un'entità tecnologicamente complessa di cui non comprendiamo il funzionamento interno; è, più profondamente, un'entità la cui complessità interna, una volta stabilita, testata e dimostrata efficace e affidabile, viene "nascosta", "dimenticata" o resa irrilevante per scopi pratici, permettendo che venga trattata come una singola unità discreta con un input e un output prevedibili (Latour, 1987). Una volta che un sistema scientifico o tecnologico è "inscatolato", la sua complessa origine, i dibattiti e le controversie scientifiche che hanno portato alla sua costruzione, i contributi di tutti gli attori eterogenei che lo compongono, e la sua intrinseca fragilità iniziale diventano invisibili, quasi un'amnesia funzionale. La "puntualizzazione" è il processo strettamente correlato attraverso cui una complessa rete di relazioni, interdipendenze, negoziazioni e mediazioni viene condensata e percepita come un singolo "punto", un'unica entità discreta, un oggetto apparentemente autonomo, una competenza individuale o un'astrazione semplice (Latour, 1987). Questo processo di semplificazione e condensazione è fondamentale per la sua facile mobilitazione, diffusione, adozione su larga scala e per la sua integrazione fluida nelle pratiche quotidiane, quasi un'illusione necessaria per la sua efficacia.

Molti sistemi di AI, una volta implementati e resi operativi su larga scala, funzionano effettivamente come "black box" per la stragrande maggioranza degli utenti finali, degli stakeholder e persino per alcuni esperti. Un utente comune di un'app di navigazione GPS avanzata (es. Google Maps, Waze, Here WeGo) non ha né la necessità né il desiderio di comprendere gli intricati algoritmi di routing che calcolano il percorso ottimale in tempo reale, i metodi sofisticati di aggregazione dei data di traffico provenienti da milioni di sensori e smartphone, la complessa topologia della rete satellitare GPS, l'infrastruttura massiva di server e data center distribuiti globalmente che supporta il servizio, o i modelli predittivi del traffico che anticipano ingorghi. Tutta questa immensa complessità tecnologica e relazionale è "inscatolata" e l'app funziona semplicemente come un'unica entità che "ti porta a destinazione" o "trova il percorso più veloce", spesso con una voce umana sintetica rassicurante che fornisce istruzioni passo-passo. Questa "puntualizzazione" è indubbiamente funzionale all'adozione diffusa e all'integrazione fluida dell'AI nella vita quotidiana e professionale, in quanto riduce drasticamente il carico cognitivo sugli utenti, ne semplifica l'interazione e ne accelera l'accettazione.

Tuttavia, l'opacità intrinseca della black box e gli effetti della puntualizzazione possono anche generare problemi significativi e complessi, in particolare in termini di "fiducia nell'AI", responsabilità algoritmica, controllo sociale, accountability e giustizia, specialmente in contesti critici e ad alto rischio come la medicina (diagnosi e terapia assistita da AI), il diritto (sistemi di giustizia predittiva, valutazione del rischio di recidiva, raccomandazioni di sentenze), la finanza (trading ad alta frequenza, valutazione del credito), la sicurezza nazionale (sistemi di sorveglianza e riconoscimento facciale) o le decisioni di assunzione (recruiting automatizzato). Quando un sistema AI prende decisioni che hanno implicazioni profonde, spesso irreversibili e a volte ingiuste sulla vita delle persone, la sua natura di "black box" può rendere estremamente difficile comprendere il perché di una certa raccomandazione, diagnosi, decisione di prestito, assegnazione di pena o esclusione da un processo di selezione. Questo solleva interrogativi etici, legali e sociali di vasta portata e di crescente urgenza (Walsh et al., 2019). L'esigenza crescente di "AI spiegabile" (Explainable AI - XAI) nasce proprio da questa necessità, sempre più riconosciuta e pressante, di "aprire la black box" e rendere intelligibili, almeno in parte e per scopi specifici, i processi decisionali algoritmici, le variabili considerate e i criteri applicati, anche se ciò significa dover ricorrere a semplificazioni o approssimazioni del reale funzionamento.

Il dibattito pubblico sull'AI, che la presenta spesso in termini iper-semplificati e polarizzati – come una "minaccia esistenziale" che porterà all'estinzione dell'umanità o come una "salvezza provvidenziale" che risolverà tutti i problemi – è un esempio macroscopico e problematico di "puntualizzazione" e "inscatolamento" della complessità. Questo tipo di narrazione ignora quasi completamente la sua natura intrinsecamente di rete eterogenea, composta da molteplici attori, relazioni dinamiche, interessi divergenti, negoziazioni incessanti e processi in continua evoluzione. L'ANT, quindi, non solo critica l'opacità delle black box e i rischi di una eccessiva semplificazione, ma ci invita metodologicamente a "aprire la black box" e a "depuntualizzare" l'AI. Questo significa decomporre l'apparente unità dell'AI per rivelare le forze sottostanti, le negoziazioni tacite, le interazioni complesse e i contributi eterogenei che la costituiscono, la stabilizzano e la rendono operante e influente nella realtà. Riconoscere la black box come un effetto della traduzione, piuttosto che una proprietà intrinseca, è il primo passo per un'analisi più critica e responsabile, quasi un imperativo epistemologico.



Quasi-Oggetti e ibridità: l'AI come entità mista, socio-tecnica e intrinsecamente relazionale

L'ANT, nella sua critica radicale alla modernità e alle sue ontologie dualistiche, introduce i concetti innovativi di "quasi-oggetti" e "ibridità" per sfidare e superare le dicotomie tradizionali e le divisioni categoriali ereditate dal pensiero cartesiano e dalla sociologia classica – come quelle tra natura e cultura, soggetto e oggetto, umano e nonumano, materiale e immateriale. Un "quasi-oggetto" è un nonumano che, non essendo né un puro soggetto (dotato di intenzionalità, coscienza o volontà autonoma) né un puro oggetto (inerte, passivo e completamente deterministico), circola attivamente in un gruppo sociale. Agisce come un mediatore indispensabile, facilitando o strutturando le relazioni tra i suoi membri, e rendendo possibile l'esistenza, la coesione e l'azione del collettivo stesso (Latour, 1993; Michael, 1996). I quasi-oggetti sono entità che oscillano tra queste categorie, assumendo proprietà di entrambi e mettendo in discussione le loro nette separazioni, dimostrando che la realtà, in effetti, è fatta di "ibridi" che sfuggono a qualsiasi categorizzazione pura, quasi un atto di ribellione ontologica.

L'"ibridità" si riferisce precisamente al fatto che né gli umani (che l'ANT vede come "quasi-soggetti", poiché anche le loro identità, capacità e azioni sono profondamente modellate dalle loro relazioni con i nonumani) né i nonumani sono entità "pure", predefinite e isolate.

Al contrario, sono entità intrinsecamente co-prodotte, mutuamente costitutive, inseparabili, e che esistono e assumono significato solo attraverso le loro associazioni reciproche e le continue negoziazioni all'interno delle reti (Michael, 1996; Latour, 1993).

L'ibridità sottolinea la fluidità, la permeabilità e la fusione dei confini tra ciò che tradizionalmente viene considerato "tecnico" e ciò che viene considerato "sociale", rivelando che tale distinzione è un effetto, non una causa, quasi un errore di categorizzazione fondamentale.

L'Intelligenza Artificiale è, per la sua natura intrinseca e per la sua complessa operatività, un'entità profondamente e inestricabilmente ibrida, un vero e proprio centauro tecnologico. Non è puramente un insieme di hardware (server, chip, infrastrutture computazionali fisiche) o puramente un software (codice algoritmico, modelli matematici, dati); non è solo logica formale o solo un costrutto sociale. L'AI è, al contrario, una miscela inestricabile e inseparabile di tutti questi elementi interconnessi: algoritmi matematici sofisticati (con le loro complesse architetture neurali, le loro funzioni di costo e i loro ottimizzatori), infrastrutture computazionali globali (cloud computing, data center distribuiti), vasti e diversificati set di data (spesso generati da interazioni umane complesse e riflettendo bias sociali, culturali ed economici), interfacce utente intuitive che mediano l'interazione, competenze umane altamente specializzate (ingegneri del machine learning, scienziati dei data, esperti di dominio che addestrano, curano e affinano i modelli, eticisti dell'AI), e contesti culturali, etici, normativi e politici specifici che ne regolano lo sviluppo e l'uso.

In questa prospettiva relazionale e ibrida, i sistemi di AI fungono da "quasi-oggetti" che mediano, strutturano e trasformano attivamente le relazioni sociali, le pratiche professionali, le interazioni quotidiane e le strutture di potere. Un sistema AI di recruiting, ad esempio, non è solo un algoritmo che analizza e filtra i curriculum vitae in base a parole chiave; esso agisce come un quasi-oggetto che "costruisce" e "riconfigura" le relazioni tra candidati e aziende, influenzando attivamente chi viene selezionato per un colloquio, chi viene assunto e, crucialmente, in base a quali criteri (che possono includere preferenze implicite o bias sistemici ereditati dai data storici). Questo sistema può, involontariamente, riprodurre o persino amplificare bias esistenti nel mercato del lavoro (es. discriminazioni di genere, età o etnia), diventando così un attore attivo nella creazione e nel mantenimento di nuove forme di disuguaglianza, anche in assenza di intenzionalità discriminatoria esplicita. Questo dimostra come la sua materialità tecnologica sia inestricabilmente legata alla sua performatività sociale, ai suoi impatti etici e alle sue implicazioni per la giustizia sociale. Il fatto che un algoritmo di recruiting possa escludere un candidato in base a caratteristiche non correlate alle sue competenze è un effetto della rete, non un errore isolato; è una manifestazione della sua ibridità.

Le "caratteristiche simili a quelle umane" degli assistenti AI conversazionali (es. chatbot empatici, voice assistant con toni di voce naturali, avatar con espressioni facciali realistiche), spesso progettate per migliorare l'esperienza utente e la percezione di "collaborazione", possono influenzare significativamente non solo la percezione umana dell'AI (aumentando la fiducia o la dipendenza), ma anche la creatività dei dipendenti, la loro disponibilità a collaborare con la macchina e persino la loro autopercezione come lavoratori (Zhang et al., 2024). Questo illustra chiaramente come l'AI non si limiti a elaborare informazioni in modo binario o deterministico, ma partecipi attivamente alla costruzione di realtà sociali, psicologiche e relazionali complesse, sfumando i confini tra l'autonomia umana e l'automazione artificiale. Un chatbot che risponde con empatia può effettivamente modificare le aspettative del cliente verso le interazioni di servizio, umanizzando la tecnologia e spingendo gli operatori umani a emulare la "performatività empatica" dell'AI. Questa intrinseca ibridità dell'AI richiede imperativamente un approccio analitico che non cerchi di separarla artificialmente dal suo contesto socio-tecnico o di ridurla a una delle sue componenti (hardware, software, data, umani). Richiede invece un'analisi che ne abbracci la sua esistenza come entità relazionale, co-costruita e in continua evoluzione, le cui proprietà e i cui impatti emergono dalle sue complesse e dinamiche associazioni. Ignorare questa ibridità fondamentale porta inevitabilmente a un'analisi incompleta, parziale e potenzialmente fuorviante delle sue implicazioni reali e delle sue dinamiche d'impatto sul mondo. L'ANT ci obbliga a pensare l'AI come una "cosa" nel senso latouriano, un nodo di connessioni, un enigma da esplorare.

AI e organizzazione nella prospettiva dell’ANT

L'applicazione pratica e metodologica dell'ANT allo studio dell'Intelligenza Artificiale non è un mero esercizio di astrazione teorica, ma offre strumenti concettuali potentemente rivelatori e operativi per svelare la complessità intrinseca di fenomeni contemporanei apparentemente incomprensibili. Essa consente di andare oltre le spiegazioni semplicistiche o riduzionistiche e di fornire una comprensione più profonda delle intricate interconnessioni tra tecnologia, esseri umani, organizzazioni, processi decisionali e la società nel suo insieme, quasi un tessuto connettivo invisibile.

L'AI come agente di riconfigurazione organizzativa: impatti su lavoro, competenze, gerarchie e cultura aziendale

L'integrazione dell'AI nelle pratiche organizzative rappresenta una delle trasformazioni più pervasive e significative del nostro tempo, incidendo non solo sull'efficienza e sulla produttività, ma sulla natura stessa del lavoro, sulla divisione delle mansioni, sulle competenze richieste, sulle dinamiche di potere e sulla cultura aziendale. L'AI non è semplicemente uno strumento passivo che viene aggiunto o "innestato" in processi esistenti senza alterarne la struttura fondamentale; essa è un "actante" dinamico e performativo che co-costituisce e "riconfigura" attivamente le relazioni lavorative, le gerarchie di autorità, le routine operative, i sistemi di valutazione delle performance e persino i valori e le norme informali che definiscono la cultura aziendale. La "collaborazione uomo-AI" (human-AI collaboration) emerge come un tema centrale e complesso in questo contesto, richiedendo un'analisi ANT-informata per essere pienamente compreso nella sua multidimensionalità, Consideriamo, ad esempio, i centri di assistenza clienti (contact center), un settore che è stato radicalmente trasformato dall'AI. I chatbot AI e gli assistenti virtuali non sono solo interfacce tecnologiche che processano il linguaggio naturale; essi sono actanti che interagiscono direttamente con i clienti, gestiscono le richieste iniziali (spesso quelle più frequenti e semplici), raccolgono informazioni preliminari e, crucialmente, "filtrano" e "prioritizzano" i casi per gli operatori umani. La qualità complessiva del servizio offerto, la soddisfazione del cliente e l'efficienza operativa non sono più determinate solo dalle capacità intrinseche del software, dall'abilità individuale dell'operatore umano o dalla struttura organizzativa. Piuttosto, emergono dalla complessa e dinamica rete di interazioni continue tra clienti (con le loro domande, emozioni e aspettative), operatori umani (con la loro expertise, capacità empatica e problemi da risolvere) e l'AI (con le sue capacità di elaborazione, apprendimento e automazione), dove ciascun actante influenza reciprocamente gli altri in un flusso costante, una sinfonia di interdipendenze. La suddivisione dei compiti tra capacità umane (es. gestione di casi complessi e non strutturati, problem-solving creativo, espressione e gestione dell'empatia, negoziazione di situazioni emotive) e capacità algoritmiche (es. risposta a FAQ standardizzate, analisi di grandi volumi di dati per identificare pattern, instradamento intelligente delle chiamate, accesso rapido a database di conoscenza) ridefinisce profondamente la divisione del lavoro. Questo altera le descrizioni delle mansioni, crea nuove dipendenze e interdipendenze e genera nuove dinamiche relazionali sia tra i colleghi umani che tra gli umani e le entità AI (Jarrahi, 2018). I lavoratori umani potrebbero ritrovarsi a gestire solo i casi più complessi e frustranti, mentre i chatbot assorbono i compiti più semplici e gratificanti, portando a nuove forme di alienazione o, al contrario, di valorizzazione delle competenze più squisitamente umane, quasi un paradosso della specializzazione.

In questo senso, l'ANT sfida apertamente le dicotomie tradizionali e spesso fuorvianti, come quella tra tecnologia e società, o tra efficienza economica e benessere dei lavoratori. L'AI, mentre indubbiamente ottimizza la produttività e l'efficienza operativa attraverso l'automazione di compiti ripetitivi e l'analisi predittiva su larga scala, può anche generare "paura" e ansia tra i lavoratori, sia per la potenziale perdita del posto di lavoro dovuta all'automazione che per una percezione di dequalificazione, di perdita di autonomia professionale o di aumento del controllo (Brougham & Haar, 2018; Frey & Osborne, 2017).

Mentre un'analisi ANT esplora le complesse interazioni tra attanti umani e non umani, la prospettiva psicosocioanalitica offre un indispensabile completamento, orientando la sua attenzione sulle dinamiche inconsce e affettive che strutturano l'organizzazione e le sue risposte ai cambiamenti tecnologici. Questa visione, rielaborata in Italia a partire dalle eredità del Tavistock Institute, non considera l'organizzazione un'entità meramente razionale, ma piuttosto un "soggetto" complesso, animato da un "inconscio organizzativo" che si manifesta attraverso fantasie, miti e difese collettive. L'introduzione di una tecnologia pervasiva come l'Intelligenza Artificiale attiva a livello profondo questi meccanismi latenti, scatenando ansie e resistenze che non sono immediatamente razionalizzabili. In tale contesto, le categorie concettuali della Psicosocioanalisi operano per un risanamento organizzativo non attraverso una gestione superficiale del cambiamento, ma tramite un intervento clinico mirato alla rielaborazione delle dinamiche inconsce. L'approccio dello Sviluppo Organizzativo Clinico, sintesi di pragmatismo OD e rigore psicosocioanalitico, sposta il focus dal "come" implementare la tecnologia al "che cosa" l'organizzazione e i suoi membri diventano in questa trasformazione. Il processo di risanamento si attua creando un "contenitore" sicuro, uno spazio di riflessione e ascolto in cui le proiezioni e le paure suscitate dall'AI possono essere riconosciute e metabolizzate. Il consulente, operando come "interprete del sistema", aiuta il collettivo a decifrare il significato sotteso ai comportamenti resistenti e alle disfunzioni emergenti, trasformando le manifestazioni affettive da ostacoli a preziose informazioni per l'apprendimento. Questo "lavoro emotivo" si rivela cruciale per superare le rigidità difensive e per riorientare l'organizzazione verso una maggiore maturità e consapevolezza. Attraverso la rielaborazione delle fantasie e dei miti che l'AI ha attivato, l'organizzazione può rinegoziare la propria identità in relazione alla tecnologia, passando da una reazione difensiva a una posizione proattiva e costruttiva. Le categorie psicosocioanalitiche, quindi, non si limitano a descrivere il fenomeno, ma offrono gli strumenti per decostruire e ricostruire la relazione tra l'essere umano, l'organizzazione e la tecnologia, promuovendo un risanamento che tocca la radice stessa dei processi di senso e di identità.

Un'analisi ANT, dal canto suo, rivelerebbe anch’essa come queste percezioni e risposte non siano solo attributi psicologici individuali o reazioni innate e universali; esse sono effetti emergenti e dinamici della rete eterogenea che include: l'AI stessa (con la sua performance, la sua opacità o trasparenza, la sua "voce" o interfaccia, quasi una maschera), le specifiche politiche aziendali di introduzione dell'AI (es. come viene comunicato il cambiamento, se ci sono programmi di riqualificazione o supporto psicologico), le narrazioni sociali e mediatiche che circondano l'AI (spesso alimentando i timori di una "apocalisse robotica"), le esperienze storiche passate di automazione e delocalizzazione che hanno plasmato le aspettative dei lavoratori, e le risposte dei sindacati o delle associazioni di categoria. Questa "paura" non è un mero sentimento individuale, ma una "traduzione" collettiva e situata della percezione di perdita di controllo, di comprensione o di valore professionale, che a sua volta influenza la volontà di adottare, di resistere o di modellare attivamente le nuove tecnologie. L'ANT fornisce, quindi, una lente imprescindibile per comprendere come l'AI e il suo contesto sociale si influenzino e co-evolvano a vicenda in un processo incessante, sfumando i confini tra ciò che è strettamente "tecnico" e ciò che è "sociale" nel workplace contemporaneo, e rivelando le interdipendenze profonde e spesso invisibili che modellano le organizzazioni complesse e i loro membri.



AI e gestione algoritmica: il potere distribuito, negoziato e conteso nel lavoro su piattaforma e oltre le gerarchie tradizionali

Il concetto di "gestione algoritmica" (algorithmic management) è un'innovazione organizzativa radicale che sta ridefinendo le modalità di controllo, coordinazione e valutazione del lavoro in numerosi settori, ed è particolarmente evidente nelle economie delle piattaforme digitali (gig economy) come il ride-sharing (es. Uber, Lyft) o le consegne a domicilio (es. Deliveroo, Glovo, Foodora). In questi contesti, gli algoritmi di AI non sono semplicemente strumenti di coordinamento logistico o di ottimizzazione dell'efficienza dei percorsi o dei tempi di consegna; essi fungono da actanti con una forte e pervasiva agenzia, capaci di controllare, monitorare in tempo reale, valutare le performance, influenzare i comportamenti e persino disciplinare i lavoratori in modi che spesso superano i tradizionali meccanismi di gestione gerarchica umana. Attraverso gli algoritmi, le piattaforme esercitano una forma di potere che è distribuita, opaca e continuamente negoziata tra umani e nonumani (Danaher et al., 2017), quasi una tecno-oligarchia invisibile.

Il sistema di gestione algoritmica può essere analizzato come una complessa e dinamica "actor-network" che include una pluralità di actanti interconnessi in modo fluido, quasi un ecosistema vivente: l'algoritmo stesso (con i suoi codici sorgente, i suoi modelli predittivi, le sue funzioni obiettivo e le sue logiche decisionali implicite, che riflettono le priorità economiche dei proprietari della piattaforma); i data di posizione dei lavoratori (raccolti in tempo reale tramite GPS dagli smartphone, creando una "traccia" digitale del loro movimento, che diventa una forma di "iscrizione" del loro lavoro); i feedback e le valutazioni dei clienti (spesso sotto forma di stelle o commenti, che diventano data di input cruciali per l'algoritmo e influenzano la reputazione e l'accesso al lavoro dei driver); i sistemi di pagamento (che calcolano le tariffe dinamiche delle corse o delle consegne, i bonus per la performance o le detrazioni per le infrazioni); i veicoli (auto, biciclette, scooter) come estensioni tecnologiche degli actanti umani; e le stesse interfacce utente degli smartphone dei lavoratori (che presentano le richieste di lavoro, i percorsi suggeriti, le statistiche di performance individuali, i messaggi di "nudge" per incentivare certi comportamenti). L'algoritmo agisce attivamente per "arruolare" i lavoratori nel suo programma d'azione, definendo in modo dinamico e spesso imprevedibile le tariffe delle corse o delle consegne, i percorsi "ottimali" da seguire, i tempi di consegna previsti e le penalità per le deviazioni dai percorsi o per le performance insufficienti (Stanford University, 2023). Questo non è un semplice comando gerarchico discendente, ma una sofisticata forma di "traduzione" degli obiettivi aziendali (massimizzazione del profitto, riduzione dei tempi di attesa dei clienti, ottimizzazione della forza lavoro distribuita) in metriche operative e istruzioni dettagliate che i lavoratori sono spinti a seguire attraverso meccanismi di gamification (es. badge, livelli), incentivi economici (bonus per le ore di punta) e una costante pressione sulla performance e sulla disponibilità, quasi una forma di persuasione algoritmica.



Un'analisi ANT andrebbe oltre la semplice critica unidirezionale del potere algoritmico per esplorare come i lavoratori, a loro volta, tentino di influenzare, deviare, "contraddire" o persino "resistere" alla rete algoritmica. Essi possono formare "contro-reti" informali attraverso la condivisione di strategie per "ingannare" o aggirare l'algoritmo (es. rifiutare corse poco redditizie, "nascondere" la propria disponibilità per influenzare la tariffazione dinamica in aree ad alta richiesta), lo sviluppo di forme di solidarietà tra pari per negoziare collettivamente migliori condizioni di lavoro, o la pressione collettiva per modifiche delle politiche attraverso piattaforme online o sindacati di nuova formazione che agiscono come portavoce collettivi. Questo dimostra chiaramente come l'agenzia non sia unidirezionale (dall'algoritmo al lavoratore), ma sia distribuita, contesa e continuamente rinegoziata all'interno della rete socio-tecnica (Walsh et al., 2019). La questione cruciale della "trasparenza algoritmica" e della "responsabilità dell'AI" diventa quindi una complessa questione di "traduzione" e "iscrizione" nella rete: come gli obiettivi etici e sociali (es. equità retributiva, condizioni di lavoro dignitose, protezione dei dati personali) vengano effettivamente incorporati nel codice, nelle metriche e nelle pratiche dell'AI, e come la complessità della "black box" algoritmica possa essere resa più intelligibile, giustificabile e contestabile per gli attori umani coinvolti. L'ANT ci permette di vedere la gestione algoritmica non come un fenomeno puramente tecnico (un algoritmo efficiente) o puramente sociale (lo sfruttamento del lavoratore), ma come una dinamica socio-tecnica emergente dalle interazioni, dalle negoziazioni e dalle contese continue di una rete di actanti ibridi, dove il potere è un effetto della mobilizzazione delle alleanze, un paradosso del controllo.



La co-costituzione dell'intelligenza e della creatività: percezioni umane e capacità algoritmiche

L'ANT sfida radicalmente e in modo provocatorio l'idea di un'intelligenza (sia essa umana o artificiale) come un'entità preesistente, fissa, isolata e disincarnata, risiedendo esclusivamente nella mente umana o in un chip. Invece, l'intelligenza – sia quella attribuita a un essere umano che a un sistema AI – è vista come un effetto emergente della rete, continuamente performata, negoziata, riconosciuta e stabilizzata attraverso le complesse interazioni e associazioni tra gli actanti. L'intelligenza non è una proprietà intrinseca di un "soggetto" o di un "oggetto" isolato, ma una capacità distribuita che si manifesta attraverso le associazioni eterogenee, quasi una risonanza sistemica.

Il fenomeno della "fiducia nell'AI" è un esempio calzante di questa co-costituzione relazionale. La fiducia non è una proprietà intrinseca dell'individuo umano (come una disposizione psicologica immutabile o un tratto della personalità) o dell'algoritmo (come una caratteristica tecnica intrinseca e garantita di per sé). Piuttosto, è un effetto relazionale che emerge dalla complessa e dinamica "actor-network" che include: la performance effettiva dell'AI (la sua accuratezza, la sua affidabilità, la sua coerenza, la sua capacità di auto-correzione, la sua robustezza a errori e attacchi); la sua "affidabilità percepita" dagli utenti (che può essere influenzata da fattori esterni come le notizie mediatiche, le raccomandazioni di altri, la conformità a standard etici o normativi); le spiegazioni e la "trasparenza" fornite sul suo funzionamento (se esistono, quanto sono comprensibili e contestualmente rilevanti, e se permettono un "right to explanation"); le esperienze passate degli utenti con tecnologie simili (positive o negative, che creano aspettative e schemi mentali); il contesto specifico d'uso (es. un'AI per il divertimento è percepita e gestisce la fiducia in modo diverso da un'AI per la diagnosi medica o per la guida autonoma, dove il rischio è molto più alto); e la reputazione dei suoi sviluppatori, della società che la distribuisce o degli enti di certificazione. Se un sistema AI di raccomandazione per lo streaming video sbaglia ripetutamente le previsioni o suggerisce contenuti irrilevanti o sgradevoli, la fiducia degli utenti si erode rapidamente e la rete che lo sostiene si indebolisce, portando a disinstallazioni o a una riduzione dell'uso. Se, al contrario, fornisce costantemente suggerimenti pertinenti e utili, la fiducia si consolida e diventa un elemento stabile e rafforzante della rete, influenzando positivamente l'adozione continua e l'engagement (Walsham, 1997; Lee et al., 2009). La fiducia è un "investimento" nella rete, un'aspettativa di "buona condotta" futura, quasi un contratto implicito.

In contesti di "creatività assistita dall'AI", come nella produzione artistica (musica elettronica, pittura generativa), nella composizione musicale algoritmica, nel design architettonico generativo, nello sviluppo di videogiochi procedurali o nella scrittura creativa collaborativa, l'ANT ci permette di superare la dicotomia limitante tra "creazione umana" e "strumento tecnologico". Vediamo l'AI non come un mero strumento passivo che facilita l'atto creativo umano, ma come un "partner creativo", un "co-autore", un "collaboratore autonomo" o persino un "generatore di spunti inattesi". L'idea originale (spesso vaga e non strutturata all'inizio), l'opera d'arte finita, la sinfonia innovativa o il design architettonico rivoluzionario emergono da una rete dove l'artista umano e l'algoritmo AI sono entrambi actanti attivi, i cui contributi sono inestricabilmente legati e reciprocamente costitutivi. Il risultato finale è un "quasi-oggetto" che non può essere attribuito esclusivamente all'uno o all'altro, ma è un prodotto della loro ibrida interazione e delle continue "traduzioni" tra le intenzioni umane (spesso non completamente definite o mutevoli durante il processo creativo) e le capacità computazionali algoritmiche (che possono sorprendere l'umano con soluzioni inattese, pattern emergenti o esplorazioni di spazi di design impossibili per la mente umana). Questo spinge a una riconsiderazione profonda della "natura dell'intelligenza" e della "creatività" stesse, riconoscendole come fenomeni distribuiti, relazionali, situati e incorporati (Florian, 2003; Boden, 2016).

L'intelligenza di un sistema AI di visione artificiale, ad esempio, non è universale o astratta, ma è profondamente "situata" (situatedness) ed "embodied" (incorporata) (Florian, 2003). La sua "intelligenza" si manifesta nella sua specifica capacità di interpretare specifici input visivi (es. volti, oggetti in un determinato ambiente, segnali stradali) in un dato contesto operativo e di rispondere in modi pertinenti (es. riconoscimento di oggetti, identificazione di anomalie, navigazione autonoma). Ciò dimostra la sua intrinseca dipendenza dalla sua incorporazione fisica (l'hardware su cui gira, i sensori con cui interagisce), dal suo contesto operativo (la luce, la temperatura, il rumore di fondo) e dalle interazioni continue con l'ambiente circostante. La distinzione netta e dicotomica tra l'intelligenza "propria" dell'umano e quella "delegata" alla macchina diventa irrilevante in una prospettiva ANT, in quanto entrambe sono effetti complessi di reti socio-tecniche in continua evoluzione. L'AI non è una "mente" isolata, ma un nodo in una rete di intelligenza distribuita, un'entità di frontiera nell'esplorazione dell'epistemologia post-umana.

L'ANT e l'AI: eguaglianza analitica, distinzione ontologica

Sebbene l'ANT ponga, a livello teorico, gli attori umani e non umani sullo stesso piano analitico – parlando di "attanti" per sottolineare la loro capacità di agire all'interno di una rete – è fondamentale mantenere un'attenzione critica. Questa "eguaglianza" è puramente metodologica, non ontologica in senso etico o esistenziale. L'obiettivo non è affermare che un algoritmo sia "uguale" a un essere umano in termini di coscienza, intenzionalità o diritti, ma piuttosto che entrambi debbano essere analizzati con lo stesso rigore per comprendere la co-produzione della realtà sociotecnica. La responsabilità, in questo quadro, non scompare, ma diventa un problema di attribuzione più complesso, distribuito all'interno di un network di attanti.

L'integrazione dell'intelligenza artificiale (AI) nei processi decisionali solleva una serie di interrogativi fondamentali sulla responsabilità, che la prospettiva dell'ANT consente di inquadrare con maggiore precisione e acume analitico. L'ANT fornisce una lente attraverso cui esaminare le seguenti questioni focali, superando le semplificazioni dei quadri teorici tradizionali.

Responsabilità e sistemi sociotecnici

Un primo e cruciale punto concerne l'opacità algoritmica. I modelli complessi di intelligenza artificiale, spesso definiti con la metafora della "scatola nera," rendono difficoltosa la comprensione del processo decisionale che vi soggiace. La prospettiva dell'ANT invita a orientare l'analisi verso l'intera rete di attanti che ha contribuito alla costruzione di tale opacità, includendo non solo i programmatori, ma anche le politiche aziendali, la natura dei dati di addestramento e gli interessi economici che possono aver reso l'opacità un'esplicita scelta di design. La responsabilità, in questo quadro, non è considerata un'entità singola e monolitica, bensì una problematica distribuita lungo l'intera rete.

In parallelo, si pone la questione della delega implicita e della diluizione della responsabilità. L'affidamento automatico all'AI può indurre una delega non esplicitata delle decisioni, priva di una riflessione critica sulle implicazioni. Si osserva che la responsabilità si diluisce tra i vari attori coinvolti – dagli sviluppatori agli implementatori, fino ai decisori finali – rendendo arduo individuare un singolo responsabile. L'ANT interpreta questa dinamica come un potenziale fallimento nel processo di "traduzione", in cui la responsabilità non è stata adeguatamente iscritta o delegata all'interno della rete di attanti.

Si deve inoltre considerare il fenomeno dei bias" algoritmici e delle discriminazioni. L'ANT sostiene che i "bias" negli algoritmi non siano semplici difetti tecnici, ma piuttosto l'esito di un processo di costruzione sociale. L'algoritmo, in quanto attante, incorpora le decisioni (consapevoli o meno) dei suoi creatori, le logiche dei dati storici e le strutture di potere preesistenti, con l'effetto di riprodurle e talvolta amplificarle. La responsabilità per tali "bias" va quindi ricercata lungo l'intera rete di attanti che ha contribuito alla genesi e al funzionamento del sistema.

Infine, si evidenzia la tensione tra efficienza ed etica. L'AI, attraverso la sua azione nella rete, può ottimizzare i processi per massimizzare l'efficienza, spesso a scapito di considerazioni etiche. La responsabilità di bilanciare questi due elementi ricade indubbiamente sugli attori umani; tuttavia, la prospettiva relazionale mostra che la deresponsabilizzazione non è una scelta passiva, ma un effetto dinamico prodotto dalla specifica configurazione della rete sociotecnica.

A seguito di tale disamina, si rende necessario individuare gli interstizi in cui il potere si colloca e, di conseguenza, le possibilità di resistenza. La presente analisi si propone di tracciare un percorso concettuale che, attraverso le lenti di Michel Foucault, Aldo Masullo e l'ANT, dimostri come la nozione di potere, lungi dal dissolversi, si ridefinisca e mantenga una rilevanza centrale. Tali approcci, pur differenti, convergono nel mostrare come il potere non sia una forza statica o una proprietà, ma una dinamica in costante trasformazione che opera attivamente sulla configurazione degli attori in gioco.

Il potere secondo Foucault: la costruzione del soggetto e la rete del sapere

Il pensiero di Michel Foucault offre una prospettiva radicalmente innovativa sull'analisi del potere. Abbandonando le concezioni tradizionali che lo identificano con un'istanza repressiva e statale, Foucault invita a osservare le complesse e molteplici relazioni di forza che pervadono il corpo sociale. L'obiettivo dell'analisi foucaultiana è svelare gli innumerevoli punti di applicazione e le tecniche attraverso le quali il potere si insinua nelle pratiche quotidiane, nelle istituzioni e nelle conoscenze. Questo approccio non si limita a un'analisi delle strutture macro-politiche, ma si concentra sulla genesi e sulla diffusione di meccanismi di controllo e normalizzazione che operano a un livello molecolare, producendo effetti significativi sulla costituzione degli individui.

La microfisica del potere: una rete produttiva

Foucault teorizza la microfisica del potere per descrivere una rete di relazioni che non è detenuta, ma che si esercita a partire da innumerevoli punti e in un costante gioco di forze disuguali e mobili. Non si tratta di una forza soppressiva, ma di un potere produttivo che crea realtà, norme e soggetti. L'analisi si sposta dalle grandi strutture di dominio ai dispositivi e alle tecniche attraverso cui il potere si manifesta in ambiti apparentemente neutri come la scuola, l'ospedale o la prigione. Questi meccanismi, come la sorveglianza, l'esame e le pratiche di classificazione, non agiscono attraverso la forza bruta, ma rendendo i corpi "docili e utili" per i fini del sistema. La microfisica del potere si configura dunque come un insieme di tattiche e strategie che operano a livello capillare, producendo una forma di controllo che si interiorizza e non necessita di un'applicazione esterna costante.

Il nesso inscindibile tra sapere, potere e enunciati

Un altro pilastro dell'analisi foucaultiana è l'inscindibile relazione tra sapere e potere. Come sostiene Foucault, "non esiste una relazione di potere senza la costituzione correlata di un campo di sapere, né un sapere che non presupponga e non costituisca al tempo stesso relazioni di potere" (Foucault, 1976). In questo contesto, gli enunciati assumono un ruolo cruciale. Un enunciato non è una semplice proposizione linguistica, ma l'unità elementare del discorso che, all'interno di una specifica formazione discorsiva, acquisisce un significato e una funzione. Gli enunciati non si limitano a descrivere la realtà, ma la producono, definendo cosa è vero e cosa è falso, cosa è normale e cosa è patologico. Le discipline scientifiche, la medicina e le scienze umane hanno operato storicamente come sistemi di enunciati che legittimano e veicolano determinate forme di potere, esercitando un'influenza notevole sulla vita degli individui. Il sapere non è, dunque, un'entità neutrale, ma un regime di verità prodotto e veicolato da enunciati che hanno effetti di potere concreti. L'esempio del Panopticon di Jeremy Bentham, analizzato da Foucault, illustra emblematicamente questa dinamica, mostrando come la costante sorveglianza, resa possibile da un sapere architettonico, produca l'interiorizzazione del controllo nel soggetto, che si autodisciplina in assenza di un'autorità visibile.

La soggettivizzazione: il soggetto come prodotto del potere

La soggettivizzazione, nel pensiero di Foucault, non è un processo di autonomia e liberazione, bensì l'effetto della relazione tra sapere e potere. Il soggetto non è un'entità preesistente che il potere reprime, ma è un risultato delle tecniche di potere che lo costituiscono. Attraverso pratiche come la confessione, l'esame e l'analisi psicologica, l'individuo è indotto a riconoscersi e a definirsi secondo categorie e norme predeterminate. Il potere, in questo senso, non annienta il soggetto, ma lo produce come un'entità "normalizzata" che si allinea volontariamente ai dettami del sistema. L'individuo, interiorizzando le dinamiche di sorveglianza e le griglie di sapere, diventa il custode del proprio stesso controllo. In questo modo, la soggettività emerge come un'entità profondamente politica, plasmata e modellata da dispositivi di potere che ne definiscono i limiti, le possibilità e le forme di espressione.

Implicazioni

L'analisi foucaultiana del potere come rete diffusa e produttiva, inseparabile dal sapere e dalla conseguente costituzione del soggetto, svela l'importanza di analizzare le dinamiche di forza non solo nelle strutture macro-politiche, ma anche nei contesti apparentemente più marginali della vita sociale. Questa prospettiva, che esamina le tecniche di potere come strumenti che plasmano e orientano i corpi e le menti, ci invita a individuare gli spazi in cui le dinamiche di controllo si annidano e si manifestano. Foucault sottolinea, tuttavia, che dove c'è potere, c'è sempre anche la possibilità di opposizione e di resistenza. Le stesse griglie di sapere che producono il soggetto contengono le potenzialità per la sua liberazione, poiché la resistenza non si pone come un'istanza esterna al potere, ma emerge dal suo stesso funzionamento. La comprensione di come il potere, attraverso gli enunciati e i saperi, ci costituisce, è il primo passo per immaginare e praticare nuove forme di soggettività e per aprire nuovi spazi di libertà.

Il Potere come vettore di propulsione decisionale in Aldo Masullo

Nel pensiero di Aldo Masullo, la comprensione del potere si fonda su una critica radicale della visione dell'intenzionalità come atto puro e astratto della coscienza. L'analisi, muovendo dalla fenomenologia, reintroduce la dimensione della paticità, intesa come la condizione fondamentale e pre-riflessiva del soggetto di essere "affetto" dal mondo. La paticità è una condizione di immersione affettiva e recettiva che precede ogni atto di pensiero consapevole e costituisce una "struttura pre-comprensiva" del soggetto, che ne orienta la relazione con sé stesso e con la realtà (Masullo, 2003).

È da questo stato di immersione affettiva che si sviluppa la coscienza, in un percorso che va dal senso al significato, influenzando in modo determinante la dimensione del potere. Da tale paticità, infatti, emerge in primo luogo il senso, che si configura come una prima e immediata orientazione del soggetto nel mondo. Il senso non è un atto razionale o un concetto già formato, ma una gestalt affettiva che conferisce un'iniziale coerenza all'esperienza. Esso è il "come" si presenta il mondo al soggetto nella sua immediatezza, rappresentando quella tonalità emotiva e direzionale che precede ogni concettualizzazione. Si manifesta, ad esempio, nel senso di familiarità o estraneità che un ambiente evoca, prima ancora che se ne possa definire linguisticamente il motivo, agendo in sostanza come una risonanza che il mondo provoca nel soggetto patico, fornendogli una bussola implicita.

La fase successiva e più articolata è l'emergere del significato. Se il senso è il "come" si vive un'esperienza, il significato è il "che cosa" si dice di quell'esperienza. L'emergere del significato è un processo di oggettivazione e di codifica che si realizza attraverso il linguaggio e la cultura condivisa. Il significato traduce il senso in termini concettuali, conferendogli una forma stabile, comunicabile e riconoscibile all'interno di una comunità. Tramite questo processo, un'intuizione affettiva (il senso) si trasforma in un'affermazione comprensibile, consentendo al soggetto di inserirsi in un orizzonte di interpretazione e azione condiviso.

In questa prospettiva, la collocazione del potere è profonda e articolata su entrambi i livelli di questo processo. Il potere non si configura come una coercizione esterna, ma agisce come la forza che "plasma" la struttura pre-comprensiva del soggetto:

  • il potere agisce sulla paticità e sul senso: il potere non si limita a imporre significati, ma opera a un livello più sottile, plasmando la paticità del soggetto e, di conseguenza, il senso che da essa emerge. Un sistema algoritmico, ad esempio, attraverso meccanismi di nudging e di gamification, non costringe il soggetto a scegliere, ma altera le condizioni affettive e pre-riflessive dell'esperienza, rendendo alcuni percorsi (come l'accettazione di una consegna molto remunerativa) più sensati o desiderabili di altri. Il potere, quindi, modella il terreno stesso dell'esperienza, orientando la percezione prima ancora che si formi un pensiero critico;

  • il potere controlla il significato: oltre a plasmare il senso, il potere agisce controllando il processo di significazione. L'istituzione o il sistema di potere (come una piattaforma digitale) fornisce il linguaggio e le categorie attraverso cui interpretare l'esperienza. Se un lavoratore prova un senso di fatica o frustrazione, il potere può offrire un significato che lo interpreta non come un problema sistemico, ma come una sua "scarsa performance" individuale. In questo modo, il potere fornisce un vocabolario che serve a disarmare la resistenza, incanalando l'esperienza in schemi interpretativi che rafforzano il sistema;

In sintesi, il potere, nella prospettiva di Masullo, agisce come un vettore di propulsione decisionale proprio perché non si limita a coartare la volontà, ma opera in modo sottile e pervasivo, plasmando sia il senso affettivo dell'esperienza (la paticità) sia il linguaggio (il significato) con cui la si interpreta. La decisione, pertanto, non è un atto puro della volontà, ma si radica in una pre-comprensione e una paticità già orientate. La riflessione di Masullo (2018) sulla "psicopolitica" e sul soggetto come "panottico di se stesso" trova qui una sua risonanza, in quanto il potere tecnologico e organizzativo non si limita a controllare, ma induce il soggetto a controllarsi in conformità con i suoi obiettivi.

Il Potere distribuito nella rete: la prospettiva dell'ANT

L’ANT radicalizza l'analisi del potere, spingendola oltre i confini del soggetto umano per includere anche gli attori non umani. L'ANT opera secondo il principio di "simmetria generalizzata" (Latour, 1993), che richiede di attribuire pari importanza analitica sia agli "attanti" umani che a quelli non umani (es. algoritmi, dati, oggetti tecnologici). In questo modello, il potere non è una forza che si esercita o che si possiede, ma un "effetto di rete" che emerge dalle interazioni tra tutti gli attanti.

Il potere, in ANT, è il risultato di un'azione di "traduzione" e "iscrizione" (Callon, 1986). L'attore che detiene il potere è colui che riesce a tradurre gli interessi degli altri attanti, "arruolandoli" nella propria rete e rendendoli parte del proprio programma d'azione. Un'entità non umana, come un algoritmo di intelligenza artificiale, può esercitare potere non per una sua intrinseca intenzionalità, ma perché è in grado di tradurre gli obiettivi economici dei proprietari (es. massimizzazione del profitto) in metriche operative (es. efficienza delle consegne), e di iscrivere queste istruzioni nelle interfacce degli smartphone, mobilitando così i lavoratori (driver o rider), i clienti (con i loro feedback), e i dati (di posizione e performance) come parte di una complessa rete. Il potere, quindi, non risiede in un punto specifico, ma è distribuito, continuamente negoziato e instabile, dipendendo dalla capacità della rete di mantenere le sue alleanze. La responsabilità, in questo quadro, non è più un problema di attribuzione a un singolo individuo, ma di comprensione di come l'intero network co-produca gli esiti e, di conseguenza, come il potere si manifesti in ogni nodo e connessione della rete.

Il Potere tra Soggetti, Corpi e Reti

In conclusione, la dimensione del potere non scompare nell'era dei sistemi sociotecnici avanzati, ma si evolve e si rende più sfuggente. L'analisi combinata di Foucault, Masullo e l'ANT ci fornisce gli strumenti per decostruire questa nuova forma di potere. Foucault ci ha insegnato a guardare al potere nei suoi meccanismi capillari e produttivi, Masullo ci ha mostrato come esso agisca sulla struttura pre-comprensiva e patica del soggetto, influenzando le sue stesse decisioni, e l'ANT ha esteso queste intuizioni, dimostrando che il potere è un effetto di rete continuamente negoziato tra attanti umani e non umani. L'analisi congiunta di queste prospettive permette di superare la "fuga dalla responsabilità" e di riconoscere che il potere, in quanto intrinsecamente connesso agli attori in gioco, è una realtà che deve essere gestita e rielaborata in un costante processo di risanamento e consapevolezza.



Conclusioni: verso una ricerca ANT-informata sull'AI e implicazioni

Si è fin qui cercato di mostrare come l’ANT si affermi come un approccio analitico e metodologico fertile per lo studio dell'Intelligenza Artificiale, offrendo una via d'uscita dai vicoli ciechi del determinismo tecnologico (che ignora l'agenzia umana e le contingenze sociali) e dell'antropocentrismo metodologico (che sottovaluta il ruolo attivo dei nonumani). Essa fornisce una struttura concettuale robusta, versatile e profondamente rivelatrice che permette di svelare la natura intrinsecamente socio-tecnica, relazionale e performativa dell'AI, riconoscendone la sua agency distribuita e la sua capacità di co-costituire e riconfigurare il sociale in maniera dinamica, emergente e non lineare, quasi un costante processo di creazione ontologica.

Un'analisi rigorosa delle dinamiche di agency e dei sistemi di potere, sapere e significato risulta essenziale per la decostruzione di pratiche oppressive, spesso latenti e produttive di nuove forme di controllo. Un approccio decostruttivo impone l'identificazione e la critica dei regimi di verità e dei meccanismi di significato che legittimano determinate strutture sociali, veicolando una visione del mondo parziale e normalizzatrice. Integrando, in maniera solida e non marginale nel quadro della strumentazione euristica e metodologica l'indagine verso un'analisi human-oriented caratteristica dell’approccio psicosocioanalitico, è possibile cogliere le specificità delle esperienze individuali e collettive, rivelando come il potere non agisca in astratto, ma si inscriva direttamente sui corpi, le menti e le relazioni umane e le organizzazioni. Tale metodologia consente di individuare le tattiche oppressive latenti e di esplorare gli interstizi di resistenza, aprendo la strada a una riappropriazione dell'agency da parte degli individui, dei gruppi e delle organizzazioni medesime.

Tornando ora alla specificità dell’Actor Network Analysis e applicando in modo esteso e dettagliato i concetti chiave di actante, rete di attori, traduzione (con le sue fasi di problematizzazione, interesse, arruolamento e mobilizzazione), iscrizione, black box, puntualizzazione, quasi-oggetto e ibridità, abbiamo analizzato in profondità come l'AI non sia un fenomeno isolato, un mero strumento inerte o un'entità unidimensionale. Essa è, piuttosto, una complessa e fluida associazione di umani e nonumani che costantemente si definiscono, si modellano, si ridefiniscono e si trasformano a vicenda. Questo approccio ha implicazioni profonde e significative non solo per l'avanzamento della ricerca futura nel campo degli studi sull'AI e delle scienze sociali della tecnologia, ma anche per la progettazione etica, l'implementazione responsabile e la governance efficace dei sistemi di intelligenza artificiale nel mondo reale, promuovendo un approccio più olistico e integrato, quasi una visione integrale del fenomeno.

  • - per la ricerca scientifica e le scienze sociali della tecnologia: l'ANT non si limita a criticare gli studi esistenti, ma invita i ricercatori a superare gli approcci che si limitano a misurare gli impatti "della" tecnologia "sulla" società. Essa esorta a condurre studi empirici dettagliati, ricchi di dati qualitativi e etnografici, che traccino attivamente le reti di attori specifiche in cui l'AI è incorporata, dall'ideazione alla produzione, dall'implementazione all'uso quotidiano. Questo significa analizzare con precisione le dinamiche di potere sottostanti (chi ha la capacità di far agire gli altri nella rete?), le complesse negoziazioni tra gli attori (umani, organizzazioni, algoritmi), i conflitti di interesse (es. privacy vs. efficienza, profitto vs. equità), i processi di traduzione (e di contro-traduzione da parte di attori marginalizzati o resistenti) che avvengono incessantemente, e le manovre di arruolamento e mobilizzazione che stabilizzano o destabilizzano la rete. È cruciale esplorare non solo gli impatti dell'AI sugli umani (come la "paura" della perdita del lavoro, l'aumento del "cinismo" verso la tecnologia, o il "coinvolgimento" creativo), ma anche e soprattutto come gli umani, le organizzazioni, le istituzioni e persino gli altri nonumani "fanno fare cose" all'AI, plasmandone attivamente lo sviluppo, la configurazione, l'uso e l'implementazione in modi spesso imprevisti (Verbeek, 2005). Ciò implica un necessario spostamento dell'attenzione da ciò che l'AI "è" intrinsecamente (la sua architettura, il suo codice) a ciò che l'AI "diventa" attraverso le sue specifiche associazioni e le sue performatività. La ricerca dovrebbe inoltre approfondire le "iscrizioni" algoritmiche (i bias impliciti, le logiche incorporate, le assunzioni di design, i valori predefiniti) e come queste riflettano, riproducano o persino amplifichino dinamiche sociali esistenti o, al contrario, ne creino di nuove e inattese. È fondamentale analizzare le tensioni e le sinergie nella collaborazione uomo-AI, comprendendo come le competenze, le responsabilità e l'agenzia si distribuiscano e si evolvano dinamicamente nella rete, dando vita a nuove forme di lavoro e di organizzazione. L’avvento di forme di AI sempre più sofisticate e in grado di compiere operazioni complesse richiede una attenta analisi dello scenario contemporaneo. La transizione dall'AI generativa all'AI agentica rappresenta un'evoluzione paradigmatica nello sviluppo dei sistemi autonomi (Sapkota et al., 2025; Schneider, 2025; Zhang et al., 2025). Le differenze sostanziali tra le due tipologie possono essere sintetizzate come segue:

    • AI Generativa: questa tipologia di intelligenza artificiale è primariamente orientata alla produzione di contenuti, fungendo da precursore e fondamento per sistemi più avanzati (Sapkota et al., 2025; Schneider, 2025). Le sue facoltà principali includono la creazione di testi, immagini, codice o musica a partire da un input specifico. Tuttavia, la sua operatività è reattiva e si esaurisce con la generazione del contenuto richiesto, senza capacità intrinseche di pianificazione, interazione con l'ambiente esterno o esecuzione autonoma di azioni per il raggiungimento di un obiettivo a lungo termine. Opera come un sistema chiuso e non agisce in modo proattivo.

    • AI Agentica: a differenza dell'AI generativa, l'AI agentica si configura come un paradigma che introduce sistemi con capacità più robuste di ragionamento e interazione autonoma (Schneider, 2025). Tali sistemi sono in grado di percepire, ragionare, decidere e agire all'interno di ambienti dinamici (Zhang et al., 2025). Utilizzando le capacità generative come base, l'AI agentica è in grado di pianificare sequenze di azioni, interagire con l'ambiente e utilizzare strumenti esterni per raggiungere un fine predefinito. L'evoluzione di questa tipologia culmina negli ecosistemi di Agentic AI, dove molteplici agenti specializzati collaborano e si coordinano per decomporre e risolvere problemi complessi, superando il limite dell'entità singola (Sapkota et al., 2025).

Il ruolo che l'ANT può compiere è quello di fungere da ponte per la ricerca interdisciplinare, facilitando un dialogo più profondo e produttivo tra ingegneri, scienziati dei data, sociologi, filosofi, eticisti dell'AI e giuristi, superando le barriere disciplinari. Questa visione integrata, che unisce una comprensione accurata delle dinamiche di potere, sapere e significato a una prospettiva human-oriented, si rivela cruciale per la decostruzione di pratiche legate a sistemi black boxed, spesso celate e latenti. Attraverso l'analisi delle interazioni tra agenti umani e non-umani, si possono identificare le strutture di controllo che modellano i comportamenti e i sistemi decisionali. L'attenzione alle implicazioni etiche e sociali di tali sistemi diventa indispensabile per mitigare i rischi di disallineamento dei valori e di propagazione degli errori. Solo un approccio olistico, che riconosca l'AI come parte di un network socio-tecnologico complesso, può promuovere lo sviluppo di soluzioni resilienti, affidabili ed eque, orientate a una governance responsabile e partecipata.

  • - per la progettazione e l'implementazione innovativa: riconoscere l'AI come un actante attivo e come un quasi-oggetto significa che la progettazione e l'implementazione di sistemi AI devono trascendere le considerazioni puramente tecniche (efficienza, scalabilità). È imperativo progettare sistemi che siano non solo tecnicamente robusti, efficienti e scalabili, ma anche socialmente responsabili, eticamente allineati e intrinsecamente capaci di adattarsi e integrarsi in complessi contesti d'uso che includono valori umani e organizzativi. Questo richiede un'attenzione maggiore alla "accountability" algoritmica (chi è responsabile quando l'AI sbaglia?), alla trasparenza delle "black box" (laddove sia fattibile e appropriato, e riconoscendo che la trasparenza totale potrebbe non essere sempre raggiungibile o desiderabile, ma che la "spiegabilità" è cruciale), e alla gestione proattiva e alla mitigazione dei "bias" intrinseci nelle "iscrizioni" dei dati di addestramento e negli algoritmi stessi. Progettare AI in un'ottica ANT significa considerare l'intero ecosistema di relazioni in cui l'AI sarà inserita sin dalle prime fasi di sviluppo. Questo include l'anticipazione di come l'AI tradurrà gli interessi degli attori, arruolerà gli utenti, e come potrebbe essere "contro-tradotta" o persino "resistita" da attori non allineati o danneggiati. Ciò implica un design partecipativo e iterativo, che includa una vasta gamma di actanti (umani, tecnici, esperti di dominio, stakeholder organizzativi, rappresentanti degli utenti) nel processo di sviluppo, e che sia intrinsecamente sensibile alle configurazioni di rete che l'AI andrà a creare, piuttosto che assumere una tabula rasa. La progettazione dovrebbe anche considerare i "repertori di azione" che l'AI abilita o inibisce, e come questi si allineano con gli obiettivi desiderati e i valori sociali. Un approccio ANT nella progettazione AI può portare alla creazione di sistemi più resilienti e adattivi, capaci di co-evolvere con le mutevoli esigenze degli utenti e del contesto sociale.

- per la governance e la politica dell'AI: La governance dell'AI non può più essere concepita come una mera attività di regolamentazione di un oggetto esterno o come l'imposizione di divieti e regole dall'alto su una tecnologia monolitica. In una prospettiva ANT, la governance dell'AI deve intervenire sulla "rete" nel suo complesso, riconoscendo la sua natura fluida, dinamica, emergente e costantemente negoziata. Ciò significa sviluppare politiche e quadri normativi che promuovano la "mobilizzazione" responsabile dell'AI, che affrontino le "traduzioni" ingiuste, discriminatorie o dannose che possono emergere, e che garantiscano che le "black box" possano essere aperte, esaminate o almeno interrogate quando necessario per motivi di responsabilità sociale o legale. La regolamentazione non deve solo focalizzarsi sull'AI come singolo prodotto (es. certificazione di algoritmi), ma anche sui processi interconnessi di sviluppo, addestramento, implementazione, interazione e manutenzione. Essa dovrebbe mirare a sostenere reti di AI che siano "giuste, trasparenti e responsabili" (Walsh et al., 2019), riconoscendo che tali attributi non sono proprietà intrinseche della tecnologia, ma effetti emergenti, continuamente negoziati e mantenuti attraverso l'azione collettiva e la vigilanza critica all'interno della rete. La governance ANT-informata dell'AI è quindi un processo continuo di apprendimento, sperimentazione e adattamento, in cui le politiche si co-evolvono con le tecnologie e le loro reti, piuttosto che imporre soluzioni rigide a problemi fluidi. Riconoscere l'AI come un ibrido significa che le soluzioni di governance devono essere ibride esse stesse, intrecciando aspetti tecnici, legali, etici e sociali in modo dinamico e interdipendente. Questo può includere la creazione di "sandbox" regolamentari per testare nuove applicazioni AI in ambienti controllati, la promozione di standard aperti per l'interoperabilità e la trasparenza, e l'istituzione di organismi multi-stakeholder che possano mediare tra gli interessi divergenti nella rete AI, quasi un nuovo modello di democrazia tecnologica.

In sintesi, l'ANT ci fornisce una lente analitica e una bussola metodologica per comprendere l'AI non come una forza esogena, autonoma e ineluttabile che agisce unilateralmente sul sociale, ma come un elemento intrinsecamente integrato, attivo e reciprocamente costitutivo di una realtà "fibrous, thread-like, wiry" (Latour, 2005) – una realtà fatta di legami, connessioni, negoziazioni incessanti, mediazioni e mutue costituzioni tra una pluralità di actanti. La sua adozione può portare a una ricerca più ricca, empiricamente fondata e teoricamente sofisticata, e a un'implementazione dell'AI più consapevole, etica, inclusiva e allineata con i valori e le aspirazioni umane e sociali. L'AI, lungi dall'essere solo un complesso prodotto di calcolo o un insieme di algoritmi astratti, è un progetto collettivo, ibrido e in continua costruzione, e la sua intelligibilità profonda e la sua governance responsabile risiedono proprio nella comprensione dettagliata e nel tracciamento delle reti eterogenee che la abilitano, la performano, la trasformano e la rendono influente nel suo divenire socio-tecnico. La fertilità dell'ANT risiede nella sua capacità di rivelare la performatività del sociale e del tecnico come effetti di queste connessioni, un continuo invito all'introspezione epistemologica.

Riferimenti Bibliografici

Bion, W. R. (1961). Esperienze nei gruppi. Armando Editore.

Bleger, J. (1966). Simbiosi e ambiguità: Studio psicoanalitico del comportamento sociale. Bollati Boringhieri.

Boden, M. A. (2016). AI: Its nature and future. Oxford University Press.

Brougham, D., & Haar, J. (2018). Artificial intelligence, automation and robotics: Contemporary issues and implications for HRM. Journal of Management & Organization, 24(3), 383–404.

Callon, M. (1986). Some elements of a sociology of translation: Domestication of the scallops and the fishermen of St Brieuc Bay. In J. Law (a cura di), Power, action and belief: A new sociology of knowledge? Routledge & Kegan Paul.

Callon, M. (1991). Techno-economic networks and irreversibility. In J. Law & M. Callon (a cura di), A sociology of monsters: Essays on power, technology and domination (pp. 132–161). Routledge.

Callon, M. (1999). Actor-network theory - the sociology of an actor-network theorist. In J. Law & J. Hassard (a cura di), Actor-network theory and after (pp. 180–191). Blackwell.

Cordella, A., & Shaikh, M. (2006). Actor-network theory and the analysis of ICT in organisations. Journal of Information Technology, 21(4), 273–282.

Danaher, J., Hogan, A., & Lawless, P. (2017). The algorithmic turn: From human experts to AI decision-making. Palgrave Macmillan.

Deleuze, G., & Guattari, F. (2017). Mille piani: Capitalismo e schizofrenia (Nuova ed., Vol. 1). Orthotes.

Ding, Y. (2006). Ontology research and development. Journal of Documentation, 62(1), 127–146.

Emery, F. E. (1959). Characteristics of sociotechnical systems. Tavistock Institute of Human Relations.

Ferraris, M. (2012). Ricostruire la decostruzione. Bompiani.

Florian, R. V. (2003). Autonomous artificial intelligent agents (Technical Report Coneural-03-01). Center for Cognitive and Neural Studies.

Forti, D., & Varchetta, G. (2001). L'approccio psicosocioanalitico allo sviluppo delle organizzazioni. Un'introduzione. Franco Angeli.

Foucault, M. (1975). Sorvegliare e punire: Nascita della prigione. Einaudi.

Foucault, M. (1976). La volontà di sapere: Storia della sessualità, Vol. 1. Feltrinelli.

Foucault, M. (1977). Microfisica del potere: Interventi politici. Einaudi.

Foucault, M. (1984). Storia della sessualità. Vol. 2: L'uso dei piaceri. Feltrinelli.

Frey, C. B., & Osborne, M. A. (2017). The future of employment: How susceptible are jobs to computerisation? Technological Forecasting and Social Change, 114, 254–280.

Gumede, N. P., & Tladi, B. (2018). Exploring Actor-Network Theory as a lens for analysing socio-technical systems: A conceptual review. African Journal of Science, Technology, Innovation and Development, 10(5), 589-598.

Heidegger, M. (1976). Essere e tempo. Longanesi.

Jackson, S. (2015). Toward an analytical and methodological understanding of Actor-Network Theory. Journal of Arts & Humanities, 4(2), 29–44.

Jaques, E. (1950). Collaborative group methods in a wage negotiation situation. Human Relations, 3(1), 3-19.

Jaques, E. (1951). The changing culture of a factory. Tavistock.

Jaques, E. (1955). Social systems as a defense against persecutory and depressive anxiety. In M. Klein, P. Heimann, & R. Money-Kyrle (a cura di), New directions in psychoanalysis (pp. 47-81). Tavistock Publications.

Jarrahi, M. H. (2018). Artificial intelligence and the future of work: Human-AI collaboration in intelligent enterprises. Business Horizons, 61(4), 577–586.

Latour, B. (1987). Science in action: How to follow scientists and engineers through society. Harvard University Press.

Latour, B. (1988). The pasteurization of France. Harvard University Press.

Latour, B. (1992). Where are the missing masses? A sociology of a few mundane artifacts. In W. Bijker & J. Law (a cura di), Shaping technology/building society: Studies in sociotechnical change (pp. 225–258). MIT Press.

Latour, B. (1993). We have never been modern. Harvard University Press.

Latour, B. (2005). Reassembling the social: An introduction to Actor-Network-Theory. Oxford University Press.

Law, J. (1992). Notes on the theory of the actor-network: Ordering, strategy, and heterogeneity. Systems Practice, 5(4), 379–393.

Law, J. (1999). After ANT: Complexity, naming and topology. In J. Law & J. Hassard (a cura di), Actor-network theory and after (pp. 1–14). Blackwell.

Lee, Y., Kozar, K. A., & Larsen, K. R. T. (2009). The technology acceptance model: Past, present, and future. Journal of the Association for Information Systems, 10(5), 440–456.

Masullo, A. (2003). Paticità e indifferenza. Il melangolo.

Masullo, A. (2018). L'Arcisenso: Dialettica della solitudine. Quodlibet.

Maturana, H. R., & Varela, F. J. (2015). Autopoiesi e cognizione: La realizzazione del vivente. Bollati Boringhieri.

Menzies, I. E. P. (1960). Social systems as a defence against anxiety: An empirical study of the nursing service of a general hospital. Human Relations, 13(2), 95-121.

Menzies Lyth, I. (1970). The functioning of the social system as a defence against anxiety: A contribution to the psycho-analytic study of social institutions. Tavistock Publications.

Michael, M. (1996). Constructing identities: The social, the nonhuman and change. Sage.

Miller, E. J. (a cura di). (1976). Task and organization. Wiley.

Miller, E. J. (1989). The “Leicester” model: Experiential study of group and organisational processes. Occasional Paper n°10. The Tavistock Institute.

Miller, E. J., & Rice, A. K. (1967). Systems of organization: The control of task and sentient boundaries. Tavistock Publications.

Morin, E. (2001). La testa ben fatta: Riforma dell'insegnamento e riforma del pensiero per affrontare le sfide del XXI secolo. Raffaello Cortina Editore.

Morin, E. (2007). From the concept of system to the paradigm of complexity. Systems Research and Behavioral Science, 24(1), 1-15.

Obholzer, A. (1996). Psychoanalytic contributions to authority and leadership issues. Leadership & Organization Development Journal, 17(6), 3-10.

Obholzer, A., & Zagier Roberts, V. (a cura di). (1994). The unconscious at work: Individual and organizational stress in the human services. Routledge.

Pichon-Rivière, E. (1971). Il processo gruppale: Dalla psicoanalisi alla psicologia sociale. Armando Editore.

Rice, A. K. (1951). The use of unrecognized cultural mechanisms in an expanding machine shop (Glacier Project - III). Human Relations, 4(2), 143-160.

Rice, A. K. (1963). The enterprise and its environment: A system theory of management organization. Tavistock Publications.

Rice, A. K. (1965). Learning for leadership: Interpersonal and intergroup relations. Tavistock Publications.

Rice, A. K., Hill, J. M., & Trist, E. L. (1950). The representation of labour turnover as a social process. Human Relations, 3(4), 349-372.

Rice, A. K., & Trist, E. L. (1952). Institutional and sub-institutional determinants of change in labour turnover (Glacier Project - VIII). Human Relations, 5(4), 347-372.

Sapkota, R., Roumeliotis, K. I., & Karkee, M. (2025). AI agents vs. agentic AI: A conceptual taxonomy, applications and challenges. arXiv preprint arXiv:2505.10468v4.

Sayes, E. (2014). Actor-Network Theory and methodology: Just what does it mean to say that nonhumans have agency? Social Studies of Science, 44(1), 134–149.

Schein, E. H. (1985). Organizational culture and leadership. Jossey-Bass.

Schein, E. H. (1999). The corporate culture survival guide. Wiley & Sons.

Schneider, J. (2025). Generative to agentic AI: Survey, conceptualization, and challenges. arXiv preprint arXiv:2504.18875v1.

Stanford University. (2023). Artificial Intelligence Index Report 2023.

Strum, S., & Latour, B. (1987). The meaning of social: From baboons to humans. Information sur les Sciences Sociales/Social Science Information, 26(4), 783–802.

Trist, E. L., & Bamforth, K. W. (1951). Some social and psychological consequences of the longwall method of coal-getting. Human Relations, 4(1), 3-38.

Trist, E. L., Higgins, G. W., Murray, H., & Pollock, A. B. (1963). Organizational choice: Capabilities of groups at the coal face under changing technologies. Tavistock Publications.

Trist, E. L., & Murray, H. (1948). Work organization at the coal face. Tavistock Publications.

Verbeek, P.-P. (2005). What things do: Philosophical reflections on technology, agency, and design. Pennsylvania State University Press.

von Bertalanffy, L. (1968). General system theory. Academy of Management Journal, 11(4), 461-469.

Walsham, G. (1997). Actor-network theory and IS research: Current status and future prospects. In A. S. Lee, J. Liebenau, & J. I. DeGross (a cura di), Information Systems and Qualitative Research (pp. 466–480). Chapman & Hall.

Walsh, T., Bankins, S., Ocampo, A. C., Marrone, M., Restubog, S. L. D., & Woo, S. E. (2019). A multilevel review of artificial intelligence in organizations: Implications for organizational behavior research and practice. Journal of Organizational Behavior, 45(2), 159–182.

Wilson, P. H. (2007). Actor-Network Theory: A framework for analysing complex socio-technical systems. The Australian Journal of Public Administration, 66(4), 405-415.

Zhang, R., Tang, S., Liu, Y., Niyato, D., Sun, S., Mao, S., & Han, Z. (2025). Toward agentic AI: Generative information retrieval inspired intelligent communications and networking. arXiv preprint arXiv:2502.16866v1.

Zhang, X., Yu, P., Ma, L., & Liang, Y. (2024). How the human-like characteristics of ai assistants affect employee creativity: A social network ties perspective. International Journal of Human-Computer Interaction, 1–19.

Pubblicato il 26 gennaio 2026