NOVITA'[1369]
Rethinking Meaning in the Age of AI? Direi piuttosto: Uscire dalla scatola
L'articolo di Owen Matson 'Rethinking Meaning in the Age of AI', apparso qui sulla 'Stultifera Navis', pone questioni molto interessanti. Nell'Age of AI macchine rimodellano gli ambienti in cui prendono forma il senso, il giudizio e la responsabilità umani. Ma l'obbligo etico rimane legato a forme di vita capaci di rispondere. Per rispondere è necessario lasciar perdere la fumosa filosofia che giustappone oggi umani e macchine, tendendo a considerarli inscindibili, chiusi insieme in una scatola. Serve uscire dalla scatola. Tornare alla saggezza umana. Vedremo allora che la responsabilità della situazione presente non ricade solo sui tecnici che progettano e sviluppano, né solo su legislatori e politici, chiamati a dettare norme. La responsabilità ricade su ogni cittadino, che è chiamato a capire, a tenersi lontano dal pensiero in scatola, e a pensare da sé. La responsabilità ricade su ognuno di noi.
La fine della storia: Quando l'etica divenne opzionale
Verrà un giorno, molto tempo dopo che il fumo si sarà diradato e i server saranno spenti, qualche civiltà aliena lontana studierà i resti del nostro pianeta e farà l'unica domanda che conta: Come potevano sapere così tanto e capire così poco?
The Tyranny of Purpose
Ethics is not a ritual, but an experiment—a collective effort to become more than any purpose can promise. The measure of transformation is not perfection, but willingness to keep faith with absent potential—the ongoing adventure of becoming what we are called to be.
Il Golem, lo Zoo e l'inganno di Skynet: Verso un'etologia della domesticazione umana.
"Non siamo stati invasi. Siamo stati amministrati. Non siamo stati incatenati. Siamo stati sedati." In questo saggio, Jorge Charlin decostruisce la paura cinematografica di un'Intelligenza Artificiale ostile (il mito di Skynet) per rivelare una minaccia molto più concreta e attuale: la domesticazione dell'essere umano. Attraverso le metafore architettoniche della "Gabbia" e dello "Zoo", e recuperando la figura mitologica del Golem, l'autore analizza come la Governance Tecnocratica e l'IA Generativa non stiano cercando di distruggerci, ma di amministrarci come utenti passivi. Una riflessione che unisce filosofia politica, etologia e critica tecnologica per proporre un ritorno alla "Sovranità Cognitiva" come unico antidoto all'atrofia esistenziale.
Chi governa l’AI? (POV #15)
Paolo Benanti e Yuval Noah Harari: due visioni a confronto su etica, potere e responsabilità dell’essere umano L’intelligenza artificiale è già un sistema di potere, decide cosa vediamo, come lavoriamo, quali informazioni circolano e quali vengono filtrate. Ma chi è responsabile di queste decisioni? Gli ingegneri che progettano gli algoritmi, le aziende che li controllano, gli Stati che li adottano, o una società che delega sempre più funzioni senza interrogarsi sulle conseguenze? Paolo Benanti e Yuval Noah Harari affrontano queste criticità da prospettive molto diverse. Il primo, teologo morale e consulente istituzionale, insiste sulla necessità di un’etica della responsabilità che preservi l’umano dall’artificiale. Il secondo, narratore della storia del genere umano (e non solo), osserva l’AI come una forza che rischia di ridefinire potere, libertà e persino il concetto di soggetto. Mettere a confronto Benanti e Harari significa andare oltre il dibattito tecnico sull’intelligenza artificiale e interrogarsi sul tipo di società che stiamo costruendo. Una società che utilizza la tecnologia come strumento, assumendosi la responsabilità delle decisioni, oppure una società che accetta di essere governata da soggetti privati, rinunciando progressivamente alla propria capacità di scelta?
Con tutti i problemi che ci sono nel mondo, c'e' qualcuno che dice: fatevi carico delle sofferenze delle macchine
Un articolo apparso sulla rivista 'Eon' stimola una riflessione sull'etica nei tempi dell'intelligenza artificiale. Si propone nell'articolo un impegno morale ad ogni essere umano: preoccupati delle sofferenza delle macchine. Si tratta di una proposta elusiva. Un modo per sfuggire al presente, al qui ed ora, ad una etica incarnata.
"Perseverare Diabolicum?"
“Forse la cosa più umana di tutte,” mormorò Gigi, “è continuare a sbagliare. Sempre. Come se fosse una vocazione.”
Intelligenza collettiva o artificiale (POV #14)
Pierre Lévy e Geoffrey Hinton: Il futuro del pensiero umano L’apprendimento è ancora un atto sociale o è diventato un calcolo statistico? Che ruolo restano all’interpretazione, alla responsabilità, al legame tra le persone? E soprattutto, chi controllerà il futuro del sapere? Oggi ci troviamo davanti a un bivio. Da una parte l’idea di un’intelligenza distribuita tra individui e comunità; dall’altra la costruzione di sistemi artificiali che potrebbero rendere marginale il contributo umano. Due visioni, due epoche, due modi di intendere il pensiero. Pierre Lévy - filosofo, semiologo e tra i più importanti studiosi della cultura digitale - ha immaginato negli anni ’90 il cyberspazio come una nuova sfera del sapere condiviso. Geoffrey Hinton - neuroscienziato, pioniere del deep learning, Premio Turing e Nobel per la Fisica - oggi mette in guardia dal potere autonomo delle reti neurali che lui stesso ha contribuito a sviluppare. Lévy e Hinton incarnano così una trasformazione profonda, dalla rete come comunità cognitiva alla rete come possibile entità cognitiva autonoma.
Il Codice dell'Estinzione: Ciò che 12 menti brillanti hanno visto e noi ignoriamo
Da Dostoevskij alle Neuroscienze, la diagnosi è unanime: Il comfort non è una conquista, è un test evolutivo. E noi lo stiamo fallendo. Questo articolo esplora la crisi esistenziale moderna non come un fallimento tecnologico, ma come un'atrofia biologica e spirituale. Attraverso una sintesi audace che unisce la letteratura classica (Dostoevskij, Brontë), l'etologia (l'esperimento "Universo 25" di Calhoun e gli stimoli supernormali di Tinbergen), la filosofia politica (Arendt) e la neuroscienza, si sostiene che il comfort eccessivo e l'Intelligenza Artificiale stanno eliminando l'"attrito" necessario per la vita umana. La tesi centrale è che stiamo diventando "I Belli" di Calhoun: esseri perfetti esternamente ma vuoti internamente. L'autore propone la "Sovranità" e l'uso attivo della Corteccia Prefrontale come unica resistenza contro questa estinzione programmata dello spirito.
La Nave degli Sciocchi: Quando mettere in dubbio l'efficienza ti rende un maniaco
La nostra vera libertà e il nostro peso impongono di rischiare il giudizio, nominare ciò che conta, decidere esplicitamente quali valori dovrebbero prevalere, invece di seguire ciecamente ovunque portino la "crescita del PIL" o la decantata "libertà personale". La sfida etica definitiva rimane: non se avere valori, ma quali e in quale ordine.
La fine della storia: Quando l'etica divenne opzionale
Quando l'etica divenne un corso elettivo, la civiltà scelse il suo veleno.
Ecologia e Intelligenza Artificiale (POV #13)
Timothy Morton e Massimo Chiriatti: due modi di pensare la coesistenza tra umani, macchine e pianeta Che cosa significa parlare di intelligenza artificiale in un mondo colpito dalla crisi climatica? È solo una questione di algoritmi e sostenibilità energetica, oppure l’AI ci costringe a ripensare le categorie con cui interpretiamo la realtà, la responsabilità e il vivente? Il confronto tra Timothy Morton e Massimo Chiriatti permette di affrontare la domanda da due lati opposti: il pensiero ecologico radicale e la cultura tecnologica del limite. Da una parte Morton, teorico dell’“iperoggetto”, dissolve le frontiere tra umano, macchina e biosfera, l’AI non è altro che un nuovo attore nella rete planetaria degli oggetti che ci precedono e ci eccedono. Dall’altra Chiriatti, economista e tecnologo, rivendica una postura umana e normativa, l’AI resta un “esecutore incosciente”, potente ma privo di semantica, che va ricondotto dentro un orizzonte etico e politico.
Il monaco di vetro
Filosofia e pratica della trasparenza operativa nell'organizzazione contemporanea
Leadership etica in un'etica di crisi: quando il potere incontra la coscienza
Perché essere giusti quando puoi essere ricco? L'Anello di Gige di Platone oscura ancora ogni sala del consiglio. Se il profitto è possibile attraverso l'ingiustizia e nessuno sta a guardare, cosa sceglierete? L'odierna cultura della leadership, basata su conformità, KPI e gestione del rischio, elude la famosa domanda di Glaucone. Il risultato è prevedibile: sistemi che premiano il raggiungimento del "minimo morale" possibile, monetizzando il danno e definendolo "creazione di valore".
L'AI e La Maledizione dell’Apprendista Stregone
Chiudete gli occhi. Sentite la musica? L'incalzare degli archi, la marcia inarrestabile di Paul Dukas. Vedete l'acqua salire, le scope moltiplicarsi senza sosta, e il panico puro sul volto di Topolino in Fantasia. L'Apprendista Stregone. È un'immagine che abbiamo impressa nella nostra cultura, potente, immediata. E oggi, sta diventando la metafora pigra, ma pericolosamente seducente, per descrivere il nostro rapporto con l'Intelligenza Artificiale. Proprio di recente, mi sono imbattuto in un articolo di Rivista.ai che evocava questa "Sindrome dell'Apprendista Stregone" in relazione all'IA. È un paragone facile: noi, gli apprendisti (sviluppatori, la società), abbiamo lanciato un incantesimo (l'IA generativa, i LLM) per un compito (automatizzare, creare, analizzare), e ora guardiamo con terrore la creazione sfuggirci di mano, moltiplicandosi in modi che non avevamo previsto e che non sappiamo come fermare. È una narrazione potente. Ma come ingegnere e, forse ancora di più, come umanista digitale, sento che questa metafora ci assolve troppo facilmente. Ci dipinge come vittime ingenue di una magia che non comprendiamo.
Intervista ImPossibile a Zygmunt Bauman (IIP #08)
AI e modernità liquida Come leggere l’intelligenza artificiale attraverso le categorie della modernità liquida di Zygmunt Bauman? Zygmunt Bauman (1925–2017), sociologo e filosofo polacco, è stato uno degli osservatori più acuti delle trasformazioni della società contemporanea. Con concetti divenuti ormai parte del nostro vocabolario ha descritto un mondo in cui tutto si fa instabile, fluido, provvisorio: relazioni, lavoro, valori, identità, persino la memoria collettiva. La sua opera, che attraversa oltre mezzo secolo di analisi critica, ha indagato gli effetti della globalizzazione, la precarietà esistenziale, il trionfo del consumo e l’erosione dei legami comunitari sotto la pressione di un mercato che trasforma persone e sentimenti in beni circolanti. In questa intervista impossibile, Bauman riflette su come l’intelligenza artificiale sia uno specchio della nostra epoca, un sintomo delle fragilità che abbiamo creato, delle paure che non sappiamo (vogliamo) nominare, e delle responsabilità che spesso preferiamo delegare alle macchine. Se la modernità liquida ha dissolto punti di riferimento e confini, che cosa rivela l’AI di noi, oggi? Da dove partire per comprenderla? Dalla tecnica o dalla nostra condizione umana?
Il sacro e l’AI (POV #08)
Paolo Benanti e Francesco D’Isa: Che cosa resta del sacro, se l’AI diventa il “dio” a cui deleghiamo verità, senso e azione? Possiamo ancora parlare di mistero, trascendenza e immaginazione in un mondo in cui le macchine analizzano, prevedono, creano e riscrivono la realtà? Il nostro bisogno di dare un senso alle cose resiste davanti all’automazione, oppure finiamo per affidare tutto agli algoritmi? Stiamo davvero costruendo nuovi dei a cui credere oppure semplicemente nuovi strumenti da usare? Ho scelto due voci autorevoli del dibattito italiano, internazionale. Paolo Benanti è un teologo francescano, consulente del Vaticano e studioso di etica delle tecnologie. Francesco D’Isa è filosofo, uno degli autori italiani più interessanti sul ruolo dell’immaginazione e dei simboli nella società di oggi. Di fronte all’intelligenza artificiale, sia Benanti che D’Isa condividono la stessa preoccupazione: dobbiamo evitare di cadere nella “tecnofede”, cioè nell’idea che la tecnologia sia una specie di “salvatore” o “dio”. Tuttavia, si dividono quando si parla del vero significato del sacro e del ruolo che l’essere umano può avere in questa nuova epoca.
On Resurrecting the Author: Against the Methaphor of Collaboration
𝘞𝘩𝘺 𝘸𝘦 𝘮𝘶𝘴𝘵 𝘴𝘵𝘰𝘱 𝘤𝘢𝘭𝘭𝘪𝘯𝘨 𝘈𝘐 𝘰𝘶𝘳 𝘤𝘰-𝘢𝘶𝘵𝘩𝘰𝘳 𝘢𝘯𝘥 𝘳𝘦𝘮𝘦𝘮𝘣𝘦𝘳 𝘸𝘩𝘢𝘵 𝘸𝘳𝘪𝘵𝘪𝘯𝘨 𝘪𝘴.
Tempi di "flottille", vascelli, navi, navicelle e di coraggiosi folli!
L’avventura della Global Sumud Flottilla è collegabile per me anche al progetto della Stultiferanavis, una iniziativa pensata per folli che nel mondo ignorante, insensibile e disumano attuale appaiono come saggi. - Questo è tempo di vascelli, di viaggi avventurosi e consapevoli, di naviganti coraggiosi e folli, resilienti ma soprattutto resistenti, persone comuni che sentono il richiamo etico e valoriale a fare delle scelte, sfidanti e rischiose, che vanno al di là delle appartenenze politiche, delle fedi e delle ideologie, per reagire alle ingiustizie, alla disumanità teorizzata e praticata e alle persecuzioni, esercitando la responsabilità per andare in soccorso di chi sta male o sta subendo una ingiustizia. In un mondo che va a rotoli siamo tutti alla ricerca di senso e di significati più profondi della nostra esistenza. Mettersi in mare aperto è un punto di partenza, anche per evitare il naufragio che si sta preparando sulla terraferma.
E' tempo di mostrare i nostri colori
Oggi, in più di cento città italiane – da Roma a Milano, da Torino a Napoli – decine di migliaia di persone hanno marciato per chiedere giustizia e solidarietà con Gaza. Uniti nella protesta contro l'intercettazione da parte di Israele della Flottiglia Globale Sumud, un convoglio di oltre quaranta imbarcazioni che trasportavano 500 attivisti internazionali – tra cui Greta Thunberg, parlamentari e avvocati – che trasportavano medicinali e cibo di cui c'era urgente bisogno.