Sono regista di documentari e cortometraggi, con una formazione in architettura.
Dopo la laurea, ho intrapreso un percorso professionale nell’ambito della comunicazione sociale, ideando e coordinando campagne rivolte in particolare ai giovani.
Un momento decisivo per la mia crescita professionale è stato il Summit del G8 a Genova nel 2001. In quell’occasione ho preso parte all’organizzazione del Genoa Social Forum, per poi assumere il ruolo di consulente tecnico nell’analisi di materiali audiovisivi utilizzati in ambito giudiziario, relativi ai fatti di quei giorni.
Da quell’esperienza è nata la mia passione per il documentario, che mi ha portato a realizzare lavori come Janua (2010), Black Block e La Provvista (2011), fino ai più recenti La Scelta (2022) e Persone (2024).
Inoltre, ho collaborato con diverse testate giornalistiche, tra cui Internazionale, contribuendo alla scrittura del podcast Limoni.


Intervista ImPossibile a Sergej Michajlovič Ėjzenštejn (IIP #29)

Montaggio e AI, il senso del racconto visivo Se il montaggio costruisce senso attraverso il conflitto, diventa necessario chiedersi cosa succede quando questo processo viene affidato a macchine che apprendono da archivi di immagini e comportamenti umani. Ėjzenštejn ha pensato il montaggio come un dispositivo di conoscenza, il significato prende forma nella relazione tra le immagini, nella tensione che si genera quando entrano in collisione; da ciò emergono le emozioni.

Chi governa l’attenzione? (POV #29)

Jonathan Crary vs Tristan Harris: Se il potere si costruisce oggi attraverso la progettazione dei comportamenti, quale spazio resta per una soggettività politica autonoma? Chi decide cosa entra nel nostro campo visivo riguarda oggi le infrastrutture che organizzano la circolazione delle immagini. I contenuti passano attraverso sistemi che classificano e stabiliscono in anticipo cosa può emergere come rilevante e cosa resta fuori campo. Anche il tempo davanti agli schermi viene progettato. I ritmi dell’attenzione, la sequenza degli stimoli, la possibilità di interrompere sono modulati da interfacce che costruiscono un flusso continuo. La scelta individuale rimane, ma si esercita dentro un ambiente già orientato.

Intervista ImPossibile a Norbert Wiener (IIP #28)

Cibernetica e macchine autonome La cibernetica come chiave per comprendere l’intelligenza artificiale: informazione, feedback, previsione e responsabilità nel rapporto tra esseri umani e macchine è una griglia di lettura che permette di conoscere i sistemi contemporanei. Ciò che chiamiamo intelligenza artificiale non è altro che una forma avanzata di organizzazione dell’informazione, capace di apprendere da flussi di dati e di adattarsi attraverso cicli di retroazione sempre più complessi. In questo senso, le cosiddette macchine autonome non sono autonome in senso forte, ma sistemi che operano entro architetture di controllo distribuite in cui la decisione emerge da processi statistici e non da intenzioni.

AI, capitalismo e futuro della democrazia (POV #28)

Aaron Bastani vs Marc Andreessen: l’AI come bene comune o come motore del mercato? Se l’AI e l’automazione stanno ridefinendo la produzione di ricchezza, chi dovrebbe controllare queste tecnologie? L’intelligenza artificiale viene spesso raccontata come una rivoluzione tecnologica. Più raramente viene analizzata come una trasformazione politica ed economica. Chi possiede le infrastrutture dell’automazione? Chi beneficia della produttività generata da algoritmi, robotica e sistemi di calcolo sempre più potenti? La promessa dell’AI è quella di ridurre il lavoro necessario per produrre beni e servizi. Ma questa promessa apre una questione più radicale: se le macchine producono ricchezza, che cosa accade alla distribuzione di quella ricchezza? In questo nuovo articolo di POV prendo in esame due visioni divergenti nel dibattito contemporaneo. Da una parte Aaron Bastani, teorico del cosiddetto “comunismo di lusso completamente automatizzato”, secondo cui le tecnologie avanzate potrebbero consentire una società post-capitalista fondata sull’abbondanza e sulla proprietà pubblica delle infrastrutture produttive. Dall’altra Marc Andreessen, imprenditore e investitore della Silicon Valley, autore del celebre saggio secondo cui “il software sta divorando il mondo” e sostenitore di un techno-ottimismo radicale in cui l’innovazione guidata dal mercato rappresenta il principale motore di progresso. Due diagnosi diverse sul presente, due immaginari opposti sul modello di società che vogliamo costruire.

Intervista ImPossibile a Orson Welles (IIP #27)

Verità, finzione e deepfake Cinema, potere delle immagini e intelligenza artificiale. Che cosa accade quando la tecnologia rende indistinguibile la linea tra realtà e rappresentazione? Il cinema di Orson Welles ha affrontato per tutta la vita questo confine tra il potere della narrazione, la manipolazione dell’immagine, la costruzione pubblica della verità. In un’epoca di deepfake e sistemi generativi, le sue intuizioni appaiono sorprendentemente attuali.

La regola del più forte

Dopo la Seconda guerra mondiale la comunità internazionale ha cercato di costruire un sistema di regole capace di limitare la guerra e regolare i rapporti tra Stati. La Carta delle Nazioni Unite ha stabilito un principio fondamentale attraverso il quale gli Stati devono astenersi dall’uso della forza contro l’integrità territoriale o l’indipendenza politica di altri paesi. Questo principio è stato spesso interpretato o aggirato dalle stesse potenze che ne avevano promosso l’adozione. Per questo, più che parlare di una semplice crisi delle regole democratiche, forse, sarebbe necessario interrogarsi su come il diritto internazionale conviva da decenni con gli equilibri di potere della politica globale.

Intervista ImPossibile a Niccolò Machiavelli (IIP #26)

L’AI e il potere Oggi, ogni tecnologia che organizza informazioni, orienta decisioni e modella il comportamento collettivo diventa inevitabilmente anche una tecnologia di governo. Per capire cosa stia accadendo, può essere utile tornare a uno dei pensatori che più di altri ha analizzato la politica nella sua dimensione concreta. Niccolò Machiavelli è considerato il fondatore della scienza politica moderna. Nel Principe e nei Discorsi sopra la prima deca di Tito Livio osserva la politica non come un sistema di principi morali, ma come “verità effettuale delle cose”, un campo di forze nel quale individui, istituzioni e popoli competono per conquistare e mantenere il potere.

AI va in guerra

L’intelligenza artificiale è stata raccontata per anni come una tecnologia destinata soprattutto a migliorare la produttività, automatizzare compiti ripetitivi e accompagnare il lavoro umano come una sorta di copilota digitale. Ma questa narrazione, scrive Carola Frediani nella sua analisi pubblicata su Guerre di Rete, rischia di nascondere una trasformazione molto più profonda, l’ingresso dell’AI nel cuore delle infrastrutture militari contemporanee.

Corpo, genere, algoritmi (POV #26)

Judith Butler vs Kate Crawford: Chi decide cosa siamo? Nel contesto contemporaneo dominato dall’intelligenza artificiale, anche il corpo è diventato un dato. Le tecnologie di riconoscimento facciale, i modelli predittivi di genere, le metriche biometriche: tutto sembra riducibile a parametri misurabili. Sembra che tutto possa essere tradotto in parametro. Eppure, anche in questo caso, ci troviamo di fronte ad un problema politico perché ciò che viene misurato dipende dalle categorie con cui decidiamo di descriverlo. Chi stabilisce cosa è un corpo? Cosa accade quando le parole con cui siamo definiti - uomo, donna, normale, anomalo - diventano etichette dentro un dataset? Cosa cambia quando a fissarle non sono soltanto istituzioni sociali, culturali o mediche, ma sistemi algoritmici che le incorporano, le riproducono e le rendono operative su larga scala? Due pensatrici contemporanee aiutano a orientarsi in questa lettura. Judith Butler ha mostrato come il genere sia l’effetto di norme ripetute, interiorizzate, rese evidenti dalla loro stessa reiterazione. Il corpo, nella sua prospettiva, è insieme costruzione e vulnerabilità, esiste dentro contesti di riconoscimento che lo rendono intelligibile o lo espongono all’esclusione. Kate Crawford, studiando l’intelligenza artificiale, evidenzia un altro livello del problema. Gli algoritmi apprendono da archivi storici, da dati che riflettono gerarchie e disuguaglianze già esistenti. Quando classificano un volto o attribuiscono un genere, non scoprono una verità nascosta, ma rendono operative categorie ereditate, spesso senza dichiararle. Tra Butler e Crawford non c’è una sovrapposizione, la prima analizza le norme che producono il soggetto, la seconda mostra come quelle norme vengano oggi tradotte in infrastrutture tecniche. Le loro analisi convergono su un punto, il passaggio dalla costruzione simbolica dell’identità alla sua codifica automatizzata.

Intervista ImPossibile a Martin Heidegger (IIP #25)

L’intelligenza artificiale viene spesso raccontata come una rivoluzione tecnologica. In realtà, la sua portata pare riguardare più il modo in cui una civiltà interpreta sé stessa. Non siamo soltanto di fronte a nuovi strumenti, ma a una trasformazione che ridefinisce il rapporto tra linguaggio, conoscenza, decisione e immaginazione. L’AI non si limita a produrre immagini o testi, prevede comportamenti, legge il reale in cui tutto tende a presentarsi come dato. In questo contesto la tecnica diventa l’ambiente dentro cui viviamo. Quando il mondo viene progressivamente interpretato come flusso di informazioni elaborabili, anche l’essere umano rischia di essere letto nello stesso modo. Perciò, la questione diventa che cosa accade a una società quando il pensiero viene assimilato al calcolo. Non riguarda soltanto ciò che possiamo fare con le macchine, ma il modo in cui esse riconfigurano l’idea stessa di esperienza e responsabilità. Martin Heidegger, con Essere e tempo ha riportato al centro l’esperienza concreta dell’esistenza, l’essere umano come apertura al mondo. Nei suoi scritti successivi ha individuato nella tecnica moderna un modo di rivelare il mondo, un dispositivo che tende a trasformare ogni cosa in risorsa disponibile e calcolabile. Ha chiamato questo processo Gestell, l’impianto che dispone il reale come fondo da sfruttare. Rileggere oggi quelle pagine significa accorgersi che la logica descritta da Heidegger trova nell’intelligenza artificiale una delle sue forme più compiute, non perché avesse previsto computer e algoritmi, ma perché aveva colto la struttura profonda della civiltà del calcolo, una civiltà in cui il linguaggio rischia di diventare puro scambio di informazioni e l’umano una funzione tra le funzioni. Intervistare Heidegger oggi significa riportare l’AI dentro una storia lunga del pensiero occidentale e restituirla alla sua dimensione più radicale per verificare se le sue categorie siano ancora capaci di illuminare il presente.

Giustizia algoritmica (POV #25)

Cathy O’Neil vs Virginia Eubanks: Chi decide davvero quando un algoritmo decide? Sempre più decisioni che incidono sulla vita delle persone non vengono prese da esseri umani ma da sistemi automatici. Software che selezionano i candidati a un lavoro, punteggi che determinano l’accesso a un prestito, algoritmi che stabiliscono chi può ricevere un sussidio. Quando questi strumenti entrano nei processi pubblici e privati, il confine tra amministrazione tecnica e scelta politica diventa meno visibile. Le decisioni appaiono oggettive, basate sui dati. Ma chi definisce i criteri e risponde degli effetti? Negli ultimi anni le istituzioni europee hanno iniziato a riconoscere che alcune applicazioni dell’intelligenza artificiale incidono direttamente sui diritti. Per questo gli algoritmi usati nel lavoro, nel credito e nel welfare sono considerati “ad alto rischio in quanto può determinare opportunità e limiti di vita senza un reale spazio di contestazione. In questo contesto si collocano due voci ormai centrali nel dibattito internazionale: Cathy O’Neil e Virginia Eubanks. O’Neil, matematica e data scientist, ha definito molti modelli decisionali automatizzati “armi di distruzione matematica”, sistemi difficili da contestare che trasformano dati incompleti in decisioni definitive, spesso rafforzando le disuguaglianze sociali sotto l’apparenza della neutralità statistica. Eubanks, politologa, osserva invece gli algoritmi dal punto di vista del welfare. In Automating Inequality mostra come le tecnologie usate per gestire sussidi e assistenza negli Stati Uniti trasformino la vulnerabilità economica in un problema di sorveglianza e controllo, creando una sorta di “burocrazia digitale della povertà”. Il problema non riguarda solo la qualità tecnica dei modelli, ma la natura stessa della decisione pubblica. Se la selezione di un lavoratore, l’assegnazione di un mutuo o l’accesso a un servizio essenziale vengono affidati a sistemi automatizzati, chi resta responsabile dell’esito? E quale spazio rimane per il dissenso quando le scelte appaiono come il risultato inevitabile di un calcolo?

Intervista ImPossibile a Umberto Eco (IIP #24)

Con l’avvento delle intelligenze artificiali generative, il rapporto tra linguaggio, verità e interpretazione torna al centro del dibattito culturale e politico. I segni si moltiplicano e si ricombinano spesso senza un autore riconoscibile e senza un’intenzione dichiarata. Algoritmi addestrati su archivi sterminati producono testi, immagini e narrazioni che imitano il pensiero umano, mentre la distinzione tra informazione, interpretazione e manipolazione si fa sempre più sfumata. In questo scenario, interrogarsi sul destino del senso non significa soltanto discutere di tecnologia, ma riflettere sul modo in cui le società costruiscono e condividono significati, stabiliscono criteri di “verità” e organizzano le proprie memorie. Che cosa accade quando i segni non sono più prodotti soltanto dagli esseri umani? Chi interpreta chi, e quale spazio resta al pensiero critico quando la produzione simbolica diventa automatica e pervasiva? Questa intervista impossibile prova a immaginare le risposte di uno degli intellettuali che più di altri ha indagato il potere dei segni e la responsabilità dell’interpretazione. Scrittore, filosofo e semiologo, Umberto Eco è stato tra i maggiori interpreti del Novecento e del primo XXI secolo. Medievalista, teorico del linguaggio, romanziere e osservatore acuto dei media, professore all’Università di Bologna e autore di opere fondamentali come Opera aperta, Apocalittici e integrati e Il nome della rosa, ha dedicato la propria ricerca al rapporto tra segni, potere e interpretazione. Al centro del suo pensiero vi è l’idea che ogni testo sia un campo aperto di significati e che il lettore - o l’interprete - svolga un ruolo decisivo nella costruzione del senso. In un periodo nel quale la crisi delle grandi narrazioni e la dissoluzione delle comunità simboliche, le questioni sollevate da Eco tornano con forza: interpretazione, verità, manipolazione, memoria. Ed è da qui che prende forma questo dialogo immaginario.

Chi ha diritto al futuro? (POV #24)

Mariana Mazzucato vs Nick Srnicek: lavoro, reddito e dignità nel capitalismo dell’AI Se l’automazione riduce il bisogno di lavoro umano, la dignità sociale deve continuare a dipendere dall’occupazione o diventare un diritto incondizionato? Chi decide, oggi, che cosa ha valore nell’economia dell’AI? Queste domande tornano al centro del conflitto politico e non riguardano solo il futuro del lavoro, ma il rapporto tra produzione, reddito e cittadinanza in società sempre più automatizzate. Il confronto tra Mariana Mazzucato e Nick Srnicek si colloca esattamente su questa questione. Mazzucato, economista dell’innovazione e teorica dello Stato imprenditore, sostiene che la tecnologia debba essere orientata da politiche pubbliche capaci di creare valore sociale e lavoro di qualità. Srnicek, filosofo politico dell’economia digitale e teorico del post-lavoro, parte invece dalla crisi strutturale del lavoro salariato nel capitalismo delle piattaforme. L’automazione, per lui, apre la possibilità di separare reddito e occupazione e di immaginare nuove forme di libertà fondate su tempo liberato e sicurezza economica universale. Due prospettive divergenti, ma accomunate del medesimo obiettivo, ridefinire il significato della dignità sociale in un’economia in cui il lavoro non è più la misura esclusiva del valore umano.

Intervista ImPossibile a Sigmund Freud (IIP #23)

La macchina e l’inconscio L’AI promette di analizzare comportamenti, prevedere desideri, automatizzare decisioni. Si presenta come uno strumento capace di leggere l’umano attraverso i dati, trasformando tracce digitali, linguaggi e abitudini in modelli predittivi. Ma può davvero comprendere l’essere umano? O rischia, al contrario, di ridurre la complessità psichica a un sistema di calcolo e previsione? Interrogare oggi Freud sull’intelligenza artificiale è un modo per indagare quanto dell’esperienza umana può essere tradotto in dati. Fondatore della psicoanalisi e teorico dell’inconscio, Freud ha mostrato che il comportamento umano non è guidato soltanto dalla razionalità o dall’interesse, ma attraversato da desideri, rimozioni, conflitti, fantasie e pulsioni che sfuggono alla coscienza. La sua teoria della mente - articolata tra Es, Io e Super-Io - ha incrinato l’idea moderna di un soggetto pienamente consapevole di sé, introducendo una frattura destinata a segnare tutto il pensiero contemporaneo. Oggi, a più di un secolo di distanza, l’intelligenza artificiale sembra riproporre una nuova promessa di conoscenza totale. Attraverso l’analisi dei dati e l’apprendimento automatico, le macchine sono in grado di individuare correlazioni, anticipare comportamenti, suggerire decisioni. In questa prospettiva, l’AI appare talvolta come una forma di psicoanalisi automatizzata, un sistema che classifica e prevede. Eppure la psicoanalisi non è mai stata una semplice tecnica di osservazione. Il sintomo, per Freud, non è un dato oggettivo da registrare, ma un messaggio da interpretare all’interno di una relazione. Il desiderio, una forza che si manifesta attraverso rimozioni e ritorni. Il sogno, una formazione dell’inconscio che parla per spostamenti e condensazioni. Da qui nasce la tensione tra psicoanalisi e intelligenza artificiale. Una macchina può riconoscere schemi, ma può interpretare il senso di un sintomo? Può distinguere tra comportamento e desiderio? Può comprendere ciò che nell’essere umano resta contraddittorio, non riducibile a una sequenza di dati? Questa intervista impossibile prova a immaginare le risposte di Freud di fronte all’AI, per utilizzare il suo pensiero come strumento critico nel presente. Se l’intelligenza artificiale rappresenta una delle tecnologie decisive del nostro tempo, la psicoanalisi resta uno dei dispositivi più radicali per interrogare l’idea stessa di soggetto. Mettere a confronto questi due contesti significa indagare il confine tra calcolo e desiderio, tra macchina e umano.

Intelligenza artificiale, società e politica (POV #23)

Kate Crawfor e Yann LeCun: che cos’è davvero l’intelligenza artificiale? È una forma di intelligenza autonoma o, più semplicemente, un insieme di strumenti costruiti dall’essere umano per analizzare dati, fare previsioni e prendere decisioni? E, in questo scenario, chi detiene il potere, poche grandi aziende tecnologiche e governi, oppure una pluralità di soggetti in grado di orientarne lo sviluppo e l’uso? Affidare scelte a sistemi automatici impone di confrontarsi su questioni concrete. Come vengono tutelati i diritti delle persone, chi è responsabile quando un algoritmo produce errori o discriminazioni, e quali regole dovrebbero governare questi processi? Inoltre, in che modo l’intelligenza artificiale sta già trasformando il lavoro, l’organizzazione sociale e le istituzioni democratiche? Questo articolo affronta questi interrogativi attraverso alcuni temi, mettendo a confronto due figure autori centrali del dibattito contemporaneo sull’AI. Da un lato Kate Crawford, ricercatrice e studiosa dei rapporti tra intelligenza artificiale, potere e disuguaglianze sociali, nota per la sua analisi critica delle infrastrutture tecnologiche e dei loro impatti politici. Dall’altro Yann LeCun, informatico e pioniere del deep learning, tra i principali protagonisti dello sviluppo tecnico dell’AI e sostenitore di una visione più ottimista sulle sue potenzialità. Il confronto tra queste due prospettive consente di osservare l’intelligenza artificiale non solo come tecnologia, ma come questione politica e sociale, in cui scelte tecniche e responsabilità pubbliche risultano sempre più intrecciate.

Intervista ImPossibile a Bruno Latour (IIP #22)

L’intelligenza artificiale non pensa, governa. Bruno Latour ci ha insegnato che la modernità si è costruita su una finzione utile, quella di separare natura e società, scienza e politica, fatti e valori. Una finzione che ha permesso di presentare molte scelte come “neutrali” o “oggettive”, quando in realtà erano già politiche, ma non dichiarate. Oggi l’AI rende questa finzione più fragile perché mostra in modo chiaro ciò che era già presente, ovvero regole nascoste dentro ai sistemi, criteri che decidono al posto nostro, forme di potere esercitate attraverso dispositivi tecnici, senza responsabilità visibile. In questa intervista impossibile, Latour non risponde alla domanda “che cos’è l’intelligenza artificiale?”, ma a “chi sta davvero agendo quando è una macchina a filtrare le informazioni, assegnare punteggi, classificare persone?” “Chi se ne assume la responsabilità?”

Democrazia algoritmica (POV #22)

Jaron Lanier e Cathy O’Neil: Gli algoritmi possono essere compatibili con la democrazia, oppure la loro logica economica e tecnica la sta lentamente svuotando dall’interno? Viviamo immersi nei dati, ma comprendiamo sempre meno i dispositivi che li trasformano in decisioni. Che cosa accade quando scelte politiche, economiche e sociali vengono delegate a modelli matematici? Gli algoritmi promettono efficienza, oggettività, razionalità. Ma chi li progetta? Chi li governa? Chi ne subisce gli effetti? La cosiddetta “democrazia algoritmica” si presenta così come una forma di governo senza elezioni né dibattito pubblico, un potere incorporato nei sistemi che regolano l’accesso al credito, la selezione del lavoro, la circolazione delle informazioni, le pratiche di sicurezza e sorveglianza. Non è una nuova istituzione, ma un’infrastruttura decisionale che agisce sotto la soglia della visibilità politica.

Genova, 25 anni dopo: la democrazia sotto processo

Enrico Zucca, Procuratore Generale presso il Tribunale di Genova, ricorda i 25 anni dai tragici eventi del 2001 all’inaugurazione dell’anno giudiziario. C’è un legame tra quello che è successo al G8 di Genova e le scelte politiche di questo Governo. In entrambi i casi, è in gioco la democrazia. Allora la crisi si è vista nelle strade e nelle caserme, oggi si vede nelle riforme e nelle decisioni dell’attuale maggioranza. Cambiano i luoghi, ma la questione resta la medesima, chi controlla il potere quando il potere non vuole essere controllato?

Intervista ImPossibile a Jean-Michel Basquiat (IIP #21)

Segno, Simbolo, Sintassi e l’AI Un dialogo immaginario su come l’esperienza di Jean-Michel Basquiat - la sua grammatica visiva fatta di parole e simboli - possa offrire un’occasione per ripensare criticamente le questioni contemporanee legate all’intelligenza artificiale. Questa intervista impossibile problematizza l’AI come spazio di senso che si confronta con categorie profonde e politiche quali l’identità, il potere, il linguaggio e la marginalità. È un confronto tra due modi di produrre significato, la pittura che nasce dall’esperienza vissuta e dai conflitti sociali, e i sistemi computazionali che apprendono da dati preesistenti. Basquiat emerse dalla scena dei graffiti di New York negli anni ’70, prima sotto il nome di SAMO, poi come uno dei principali esponenti del neoespressionismo internazionale. In meno di un decennio, trasformò la pittura attraverso un repertorio visivo fatto di testo, segni ruvidi, simboli e un uso iperattivo di parole e numeri che non separano immagine da linguaggio ma li intrecciano come vettori di critica sociale e storica. L’opera di Basquiat ruota attorno a contraddizioni e dicotomie - ad esempio potere/oppresso, razza/classe, esperienza interna/esterna - che mettono in discussione la gerarchia dei segni nel discorso culturale e invitano a leggere l’AI non solo come strumento, ma come dispositivo che riconfigura le gerarchie interpretative stesse.