Intelligenza artificiale, società e politica (POV #23)

Kate Crawfor e Yann LeCun: che cos’è davvero l’intelligenza artificiale? È una forma di intelligenza autonoma o, più semplicemente, un insieme di strumenti costruiti dall’essere umano per analizzare dati, fare previsioni e prendere decisioni? E, in questo scenario, chi detiene il potere, poche grandi aziende tecnologiche e governi, oppure una pluralità di soggetti in grado di orientarne lo sviluppo e l’uso? Affidare scelte a sistemi automatici impone di confrontarsi su questioni concrete. Come vengono tutelati i diritti delle persone, chi è responsabile quando un algoritmo produce errori o discriminazioni, e quali regole dovrebbero governare questi processi? Inoltre, in che modo l’intelligenza artificiale sta già trasformando il lavoro, l’organizzazione sociale e le istituzioni democratiche? Questo articolo affronta questi interrogativi attraverso alcuni temi, mettendo a confronto due figure autori centrali del dibattito contemporaneo sull’AI. Da un lato Kate Crawford, ricercatrice e studiosa dei rapporti tra intelligenza artificiale, potere e disuguaglianze sociali, nota per la sua analisi critica delle infrastrutture tecnologiche e dei loro impatti politici. Dall’altro Yann LeCun, informatico e pioniere del deep learning, tra i principali protagonisti dello sviluppo tecnico dell’AI e sostenitore di una visione più ottimista sulle sue potenzialità. Il confronto tra queste due prospettive consente di osservare l’intelligenza artificiale non solo come tecnologia, ma come questione politica e sociale, in cui scelte tecniche e responsabilità pubbliche risultano sempre più intrecciate.

Umanesimo radicale: quale macchina ci accompagna nel prenderci cura

Noi umani siamo siamo oggi accusati di considerarci eccezionali, dominatori e sfruttatori della natura, padroni del mondo. Siamo invitati a riconoscerci come meri agenti che operano in una rete di agenti, dove sono agenti, accanto a noi e come noi e insieme a noi, cose e macchine. Ci viene continuamente ripetuto che il vivere consiste nell'interagire con macchine, nell'interfacciarci con macchine, nel co-evolvere con macchine. Veniamo spinti a chiederci quale spazio resti per noi umani in questo scenario. Quale ruolo resti per l’uomo ente tra gli enti, povera cosa. All’umano pre-giudicato come vittima dell’odio e della paura, schiavo di insane passioni, viene proposto un compagno, e forse anche imposto un maestro: la macchina. Ma convivono in realtà due progetti. Da un lato il progetto della macchina a portata di mano, macchina progettata per accompagnare l’umano nel coltivare esperienze, e per offrirgli qui ed ora, di fronte al problema, le tracce di ogni conoscenza che potrebbe rivelarsi utile. Dall'altro il progetto della macchina enorme cosa astrusa lontana dall’uomo, macchina che che sovradetermina l’umano e lo considera come cosa. Torniamo così a una responsabilità umana: quali macchine costruiamo come tecnici, quali macchine, come cittadini, lasciamo che vengano costruite. Il considerare gli umani attanti tra attanti è una grande fuga ontologica. La risposta sta in un umanesimo radicale: non certo un rifiuto della macchina in sé, ma un rifiuto della macchina che non ci accompagna (Scrivo questo sommario all'inizio del 2026. Per il resto lascio il testo come l'avevo scritto nel 2015. E il terzultimo capitolo di 'Macchine per pensare', Guerini e Associati, 2016, dove il testo appare con il titolo: 'Cose lontane e strumenti a portata di mano').

Estar siendo: L’imperativo dell’agire nel pensiero di Miguel Benasayag

Per Benasayag, l’azione non è la manifestazione esteriore di un’essenza interiore già costituita. È al contrario il processo stesso attraverso cui ci costituiamo come soggetti. Questa inversione è radicale. Noi non agiamo perché siamo qualcosa, ma siamo qualcosa perché agiamo. Questa posizione filosofica ha immediate conseguenze esistenziali e politiche. Significa che non possiamo delegare la nostra esistenza a un’identità precostituita, sia essa nazionale, ideologica o professionale. Significa che ogni momento, ogni situazione, ogni evento richiede una scelta, un posizionamento, un’assunzione di responsabilità. Siamo condannati, ma anche liberati, dall’imperativo dell’azione.

Non si discute con le macchine. O la catastrofe morale dei computer scientist

L'esigenza primaria nell'azione politica e culturale oggi necessaria consiste nell'evitare di stare al gioco che impone a tutti di parlare con la macchina, di guardare alla macchina, di considerare centrale nella nostra vita l'interazione con la macchina. Ciò che è necessario oggi è l'abbandono di queste vie di fuga, ed il ritorno invece a guardare il faccia gli altri esseri umani senza mediazioni macchiniche. Il primo interlocutore con cui è necessario oggi parlare e discutere, lungi dall'essere una macchina, è un umanissimo essere: il creatore di queste macchine. Il computer scientist. Del suo operato dobbiamo discutere. Con lui dobbiamo discutere, richiamandolo alla responsabilità del suo agire.

Rethinking Meaning in the Age of AI? Direi piuttosto: Uscire dalla scatola

L'articolo di Owen Matson 'Rethinking Meaning in the Age of AI', apparso qui sulla 'Stultifera Navis', pone questioni molto interessanti. Nell'Age of AI macchine rimodellano gli ambienti in cui prendono forma il senso, il giudizio e la responsabilità umani. Ma l'obbligo etico rimane legato a forme di vita capaci di rispondere. Per rispondere è necessario lasciar perdere la fumosa filosofia che giustappone oggi umani e macchine, tendendo a considerarli inscindibili, chiusi insieme in una scatola. Serve uscire dalla scatola. Tornare alla saggezza umana. Vedremo allora che la responsabilità della situazione presente non ricade solo sui tecnici che progettano e sviluppano, né solo su legislatori e politici, chiamati a dettare norme. La responsabilità ricade su ogni cittadino, che è chiamato a capire, a tenersi lontano dal pensiero in scatola, e a pensare da sé. La responsabilità ricade su ognuno di noi.

The Tyranny of Purpose

Ethics is not a ritual, but an experiment—a collective effort to become more than any purpose can promise. The measure of transformation is not perfection, but willingness to keep faith with absent potential—the ongoing adventure of becoming what we are called to be.

Il Golem, lo Zoo e l'inganno di Skynet: Verso un'etologia della domesticazione umana.

"Non siamo stati invasi. Siamo stati amministrati. Non siamo stati incatenati. Siamo stati sedati." In questo saggio, Jorge Charlin decostruisce la paura cinematografica di un'Intelligenza Artificiale ostile (il mito di Skynet) per rivelare una minaccia molto più concreta e attuale: la domesticazione dell'essere umano. Attraverso le metafore architettoniche della "Gabbia" e dello "Zoo", e recuperando la figura mitologica del Golem, l'autore analizza come la Governance Tecnocratica e l'IA Generativa non stiano cercando di distruggerci, ma di amministrarci come utenti passivi. Una riflessione che unisce filosofia politica, etologia e critica tecnologica per proporre un ritorno alla "Sovranità Cognitiva" come unico antidoto all'atrofia esistenziale.

Chi governa l’AI? (POV #15)

Paolo Benanti e Yuval Noah Harari: due visioni a confronto su etica, potere e responsabilità dell’essere umano L’intelligenza artificiale è già un sistema di potere, decide cosa vediamo, come lavoriamo, quali informazioni circolano e quali vengono filtrate. Ma chi è responsabile di queste decisioni? Gli ingegneri che progettano gli algoritmi, le aziende che li controllano, gli Stati che li adottano, o una società che delega sempre più funzioni senza interrogarsi sulle conseguenze? Paolo Benanti e Yuval Noah Harari affrontano queste criticità da prospettive molto diverse. Il primo, teologo morale e consulente istituzionale, insiste sulla necessità di un’etica della responsabilità che preservi l’umano dall’artificiale. Il secondo, narratore della storia del genere umano (e non solo), osserva l’AI come una forza che rischia di ridefinire potere, libertà e persino il concetto di soggetto. Mettere a confronto Benanti e Harari significa andare oltre il dibattito tecnico sull’intelligenza artificiale e interrogarsi sul tipo di società che stiamo costruendo. Una società che utilizza la tecnologia come strumento, assumendosi la responsabilità delle decisioni, oppure una società che accetta di essere governata da soggetti privati, rinunciando progressivamente alla propria capacità di scelta?

Con tutti i problemi che ci sono nel mondo, c'e' qualcuno che dice: fatevi carico delle sofferenze delle macchine

Un articolo apparso sulla rivista 'Eon' stimola una riflessione sull'etica nei tempi dell'intelligenza artificiale. Si propone nell'articolo un impegno morale ad ogni essere umano: preoccupati delle sofferenza delle macchine. Si tratta di una proposta elusiva. Un modo per sfuggire al presente, al qui ed ora, ad una etica incarnata.

Intelligenza collettiva o artificiale (POV #14)

Pierre Lévy e Geoffrey Hinton: Il futuro del pensiero umano L’apprendimento è ancora un atto sociale o è diventato un calcolo statistico? Che ruolo restano all’interpretazione, alla responsabilità, al legame tra le persone? E soprattutto, chi controllerà il futuro del sapere? Oggi ci troviamo davanti a un bivio. Da una parte l’idea di un’intelligenza distribuita tra individui e comunità; dall’altra la costruzione di sistemi artificiali che potrebbero rendere marginale il contributo umano. Due visioni, due epoche, due modi di intendere il pensiero. Pierre Lévy - filosofo, semiologo e tra i più importanti studiosi della cultura digitale - ha immaginato negli anni ’90 il cyberspazio come una nuova sfera del sapere condiviso. Geoffrey Hinton - neuroscienziato, pioniere del deep learning, Premio Turing e Nobel per la Fisica - oggi mette in guardia dal potere autonomo delle reti neurali che lui stesso ha contribuito a sviluppare. Lévy e Hinton incarnano così una trasformazione profonda, dalla rete come comunità cognitiva alla rete come possibile entità cognitiva autonoma.

Il Codice dell'Estinzione: Ciò che 12 menti brillanti hanno visto e noi ignoriamo

Da Dostoevskij alle Neuroscienze, la diagnosi è unanime: Il comfort non è una conquista, è un test evolutivo. E noi lo stiamo fallendo. Questo articolo esplora la crisi esistenziale moderna non come un fallimento tecnologico, ma come un'atrofia biologica e spirituale. Attraverso una sintesi audace che unisce la letteratura classica (Dostoevskij, Brontë), l'etologia (l'esperimento "Universo 25" di Calhoun e gli stimoli supernormali di Tinbergen), la filosofia politica (Arendt) e la neuroscienza, si sostiene che il comfort eccessivo e l'Intelligenza Artificiale stanno eliminando l'"attrito" necessario per la vita umana. La tesi centrale è che stiamo diventando "I Belli" di Calhoun: esseri perfetti esternamente ma vuoti internamente. L'autore propone la "Sovranità" e l'uso attivo della Corteccia Prefrontale come unica resistenza contro questa estinzione programmata dello spirito.