Il dilemma degli esperti: perché la Scatola Nera terrorizza i suoi Creatori

L'ingenuità della regolamentazione senza la costruzione della Sovranità Perché i profeti della Silicon Valley chiedono solo divieti? La paura della "Scatola Nera" nasconde una dimenticanza fatale: l'essere umano. Questo articolo analizza la cecità degli specialisti e propone un cambio di paradigma: smettere di riparare il recinto algoritmico e iniziare a rafforzare la mente che lo abita. Non è una questione di regole, è una questione di evoluzione.

Intelligenza animale, umana e artificiale (POV #17)

Frans de Waal e Yann LeCun: il mito dell’intelligenza umana come misura di tutte le cose. L’intelligenza non è più un’esclusiva dell’essere umano. Negli ultimi decenni, gli studi sull’etologia e l’intelligenza artificiale hanno minato l’antico confine tra istinto e ragione. Ma se gli animali pensano, e le macchine imparano, cosa resta dell’umano?

Mente, coscienza e il limite dell’AI (POV #16)

Andy Clark vs Federico Faggin: le differenze tra umano e artificiale Che cos’è la mente? Un insieme di processi che coinvolgono cervello, corpo e ambiente, oppure qualcosa di più profondo che nessuna macchina potrà mai riprodurre? L’intelligenza artificiale è un partner evolutivo, capace di ampliare le nostre capacità cognitive, o resta un sistema privo di comprensione autentica? Che cosa distingue davvero l’essere umano da una macchina intelligente?

Intervista ImPossibile a Gregory Bateson (IIP #17)

Mente, natura e connessioni dell’AI Antropologo, biologo, cibernetico e filosofo del pensiero sistemico, Gregory Bateson (1904–1980) ha dedicato la sua opera a smontare la separazione tra mente e natura. Contro l’idea di una mente rinchiusa nel cervello o riducibile a un meccanismo logico, Bateson concepiva la mente come un sistema vivo di relazioni, diffuso nei circuiti che collegano organismi, ambienti, linguaggi e culture. Il suo obiettivo dichiarato era infatti «costruire un quadro di come il mondo è collegato nei suoi aspetti mentali», mostrando che il pensiero non è mai isolabile dal contesto in cui prende forma.

Intervista ImPossibile a Roland Barthes (IIP #16)

L’autore è morto Roland Barthes è noto per aver insegnato a generazioni di lettori a diffidare di ciò che appare naturale. Il suo lavoro consisteva nello smontare i dispositivi che producono consenso. Barthes ha mostrato come il linguaggio racconta il mondo, ma allo stesso tempo lo organizza e lo semplifica spesso al prezzo di cancellarne i conflitti.

La Morte di Eros: Come la tecnologia sta eliminando l'attrito che ci rende umani

La Morte di Eros: Perché la comodità digitale ci sta estinguendo. Nel 1968, l'esperimento "Universo 25" dimostrò che l'abbondanza senza sfide porta all'estinzione sociale. Oggi, l'Intelligenza Artificiale ci offre una gabbia dorata simile: una vita senza dolore, senza sforzo e senza Eros. Un'analisi su come la tecnologia agisce come una "madre iperprotettiva" che atrofizza la nostra volontà e perché la vera ribellione del XXI secolo consiste nell'abbracciare la difficoltà.

Il Golem, lo Zoo e l'inganno di Skynet: Verso un'etologia della domesticazione umana.

"Non siamo stati invasi. Siamo stati amministrati. Non siamo stati incatenati. Siamo stati sedati." In questo saggio, Jorge Charlin decostruisce la paura cinematografica di un'Intelligenza Artificiale ostile (il mito di Skynet) per rivelare una minaccia molto più concreta e attuale: la domesticazione dell'essere umano. Attraverso le metafore architettoniche della "Gabbia" e dello "Zoo", e recuperando la figura mitologica del Golem, l'autore analizza come la Governance Tecnocratica e l'IA Generativa non stiano cercando di distruggerci, ma di amministrarci come utenti passivi. Una riflessione che unisce filosofia politica, etologia e critica tecnologica per proporre un ritorno alla "Sovranità Cognitiva" come unico antidoto all'atrofia esistenziale.

Chi governa l’AI? (POV #15)

Paolo Benanti e Yuval Noah Harari: due visioni a confronto su etica, potere e responsabilità dell’essere umano L’intelligenza artificiale è già un sistema di potere, decide cosa vediamo, come lavoriamo, quali informazioni circolano e quali vengono filtrate. Ma chi è responsabile di queste decisioni? Gli ingegneri che progettano gli algoritmi, le aziende che li controllano, gli Stati che li adottano, o una società che delega sempre più funzioni senza interrogarsi sulle conseguenze? Paolo Benanti e Yuval Noah Harari affrontano queste criticità da prospettive molto diverse. Il primo, teologo morale e consulente istituzionale, insiste sulla necessità di un’etica della responsabilità che preservi l’umano dall’artificiale. Il secondo, narratore della storia del genere umano (e non solo), osserva l’AI come una forza che rischia di ridefinire potere, libertà e persino il concetto di soggetto. Mettere a confronto Benanti e Harari significa andare oltre il dibattito tecnico sull’intelligenza artificiale e interrogarsi sul tipo di società che stiamo costruendo. Una società che utilizza la tecnologia come strumento, assumendosi la responsabilità delle decisioni, oppure una società che accetta di essere governata da soggetti privati, rinunciando progressivamente alla propria capacità di scelta?

Architetti della disuguaglianza

Il newsmagazine 'Time' nomina 'Person of the Year' gli 'Architects of AI'. L'articolo che annuncia la nomina è in realtà una ambigua accettazione di una situazione economica e politica proiettata verso un incremento della forbice tra ricchezza e povertà. Dove la ricchezza è sempre più nelle mani di una ristretta élite di cui i tecno-scienziati sono la facciata esemplare. Più che dci 'Architetti dell'AI' si può dunque parlare di 'Architetti della disuguaglianza'.

La Trappola dell'Oracolo: Perché l'IA deve imparare a tacere

Non cercate la risposta perfetta. Cercate la domanda difficile. L'educazione del futuro non riguarda le risposte, ma la capacità di porre la domanda giusta. L'Occidente sta commettendo un errore fatale: usare l'IA come un Oracolo che fornisce risposte immediate, creando atrofia mentale. Questo articolo propone il "Progetto Socrate": un'architettura dove la tecnologia agisce come uno specchio per creare attrito cognitivo, non per eliminarlo. Una riflessione su come l'imperfezione biologica sia il nostro vero vantaggio competitivo.

Intervista ImPossibile a Karl Marx (IIP #14)

L’AI e il futuro del lavoro Come cambia il capitalismo nell’epoca dell’intelligenza artificiale? È da questa domanda che nasce l’idea di interrogare Karl Marx come strumento critico per leggere un presente in cui lavoro, potere e tecnologia si stanno trasformando con una rapidità senza precedenti. Marx è uno dei pensatori più influenti dell’età moderna perché ha analizzato con rigore il legame tra struttura economica e rapporti sociali. Secondo lui, la produzione materiale non è soltanto un’attività tecnica, ma il terreno su cui si modellano le istituzioni, le identità e le idee. È l’“essere sociale”, afferma, a determinare ciò che pensiamo e il modo in cui viviamo insieme. Questa prospettiva è particolarmente utile oggi, quando l’intelligenza artificiale riorganizza la produzione, misura il tempo, automatizza il lavoro, governa il flusso dei dati e ridisegna i rapporti di forza tra chi possiede le piattaforme e chi vi lavora dentro. La sua analisi delle classi sociali, della produzione di valore e delle dinamiche di potere permette di leggere l’AI non come una semplice innovazione tecnica, ma come una nuova fase del capitalismo, con conseguenze profonde su lavoro, diritti e democrazia. Questa intervista impossibile adotta il metodo di Marx per interrogarlo sull’intelligenza artificiale non come semplice innovazione tecnica, ma come forza sociale. L’obiettivo è capire che cosa l’AI produce nella struttura della società, quali rapporti di potere rafforza, quali forme di lavoro trasforma, quali disuguaglianze accentua o ridisegna.

Intelligenza collettiva o artificiale (POV #14)

Pierre Lévy e Geoffrey Hinton: Il futuro del pensiero umano L’apprendimento è ancora un atto sociale o è diventato un calcolo statistico? Che ruolo restano all’interpretazione, alla responsabilità, al legame tra le persone? E soprattutto, chi controllerà il futuro del sapere? Oggi ci troviamo davanti a un bivio. Da una parte l’idea di un’intelligenza distribuita tra individui e comunità; dall’altra la costruzione di sistemi artificiali che potrebbero rendere marginale il contributo umano. Due visioni, due epoche, due modi di intendere il pensiero. Pierre Lévy - filosofo, semiologo e tra i più importanti studiosi della cultura digitale - ha immaginato negli anni ’90 il cyberspazio come una nuova sfera del sapere condiviso. Geoffrey Hinton - neuroscienziato, pioniere del deep learning, Premio Turing e Nobel per la Fisica - oggi mette in guardia dal potere autonomo delle reti neurali che lui stesso ha contribuito a sviluppare. Lévy e Hinton incarnano così una trasformazione profonda, dalla rete come comunità cognitiva alla rete come possibile entità cognitiva autonoma.

Il Codice dell'Estinzione: Ciò che 12 menti brillanti hanno visto e noi ignoriamo

Da Dostoevskij alle Neuroscienze, la diagnosi è unanime: Il comfort non è una conquista, è un test evolutivo. E noi lo stiamo fallendo. Questo articolo esplora la crisi esistenziale moderna non come un fallimento tecnologico, ma come un'atrofia biologica e spirituale. Attraverso una sintesi audace che unisce la letteratura classica (Dostoevskij, Brontë), l'etologia (l'esperimento "Universo 25" di Calhoun e gli stimoli supernormali di Tinbergen), la filosofia politica (Arendt) e la neuroscienza, si sostiene che il comfort eccessivo e l'Intelligenza Artificiale stanno eliminando l'"attrito" necessario per la vita umana. La tesi centrale è che stiamo diventando "I Belli" di Calhoun: esseri perfetti esternamente ma vuoti internamente. L'autore propone la "Sovranità" e l'uso attivo della Corteccia Prefrontale come unica resistenza contro questa estinzione programmata dello spirito.

Intervista ImPossibile a Jacques Lacan (IIP #13)

Desiderio e AI Oggi viviamo circondati da tecnologie che classificano, predicono e ottimizzano. In questo scenario, l’insegnamento di Jacques Lacan torna sorprendentemente attuale. Che cos’è l’Altro nel contesto dell’intelligenza artificiale? Che forma assume il desiderio quando interagiamo con dispositivi che non parlano ma calcolano? E che ne è del soggetto quando il linguaggio diventa un’infrastruttura tecnica e automatizzata? L’opera di Lacan ha trasformato il modo di intendere la psicoanalisi, rendendola un discorso rigoroso sul linguaggio e sul desiderio. Per lui l’inconscio non è un luogo oscuro colmo di pulsioni, ma una struttura composta da parole, segni e connessioni che seguono una loro logica interna. L’intervista impossibile che segue prova a rimettere in circolo il suo pensiero, facendolo risuonare nel presente e mostrando come il suo discorso continui a sollevare le domande fondamentali del nostro rapporto con l’AI, il potere e il desiderio.

Conrad e il "punto nave" del nostro viaggio con l'AI

C'è un momento, nella navigazione, in cui il comandante deve fermarsi e fare il punto nave: verificare la posizione reale rispetto alla rotta prevista, misurare la deriva provocata dalle correnti, dagli errori accumulati. Non è sfiducia negli strumenti – è l'unico modo per evitare che una piccola deviazione diventi, nei giorni seguenti, una rotta completamente sbagliata. Forse è arrivato il momento di fare il punto nave della nostra relazione con l'intelligenza artificiale generativa. La proposta è semplice quanto radicale: spegnere, per qualche giorno, tutti i modelli generativi. Non come condanna, ma come esperimento diagnostico. Vedere cosa succede. Misurare cosa abbiamo delegato interamente e cosa, viceversa, abbiamo guadagnato. Capire quanto della nostra "forza muscolare cognitiva e critica" abbiamo già perso in questi due anni.

Ecologia e Intelligenza Artificiale (POV #13)

Timothy Morton e Massimo Chiriatti: due modi di pensare la coesistenza tra umani, macchine e pianeta Che cosa significa parlare di intelligenza artificiale in un mondo colpito dalla crisi climatica? È solo una questione di algoritmi e sostenibilità energetica, oppure l’AI ci costringe a ripensare le categorie con cui interpretiamo la realtà, la responsabilità e il vivente? Il confronto tra Timothy Morton e Massimo Chiriatti permette di affrontare la domanda da due lati opposti: il pensiero ecologico radicale e la cultura tecnologica del limite. Da una parte Morton, teorico dell’“iperoggetto”, dissolve le frontiere tra umano, macchina e biosfera, l’AI non è altro che un nuovo attore nella rete planetaria degli oggetti che ci precedono e ci eccedono. Dall’altra Chiriatti, economista e tecnologo, rivendica una postura umana e normativa, l’AI resta un “esecutore incosciente”, potente ma privo di semantica, che va ricondotto dentro un orizzonte etico e politico.