Non si discute con le macchine. O la catastrofe morale dei computer scientist

L'esigenza primaria nell'azione politica e culturale oggi necessaria consiste nell'evitare di stare al gioco che impone a tutti di parlare con la macchina, di guardare alla macchina, di considerare centrale nella nostra vita l'interazione con la macchina. Ciò che è necessario oggi è l'abbandono di queste vie di fuga, ed il ritorno invece a guardare il faccia gli altri esseri umani senza mediazioni macchiniche. Il primo interlocutore con cui è necessario oggi parlare e discutere, lungi dall'essere una macchina, è un umanissimo essere: il creatore di queste macchine. Il computer scientist. Del suo operato dobbiamo discutere. Con lui dobbiamo discutere, richiamandolo alla responsabilità del suo agire.

Filoponìa. Una proposta eumanistica e la sua sperimentazione cubana

Filoponìa: innovativa proposta formulata da Andrea Surbone, per una nuova umanità improntata al bene, e alla serena coesistenza fra ambiente, mercato e uguaglianza. Un modello sociale in grado di contrastare e sostituire, nella cultura come nella realtà, il modello basato dell’accumulazione. E' prevista una sperimentazione del modello a Cuba. Questo articolo è proposto in italiano, in spagnolo e in inglese.

Buon Natale agli amici

Ciò che non si può dire altrimenti si può dire in versi. Tramite la poesia. Per questo non solo la 'Stultifera Navis' ospita poesie, ma affida alle poesie i messaggi forse più importanti.

Rethinking Meaning in the Age of AI? Direi piuttosto: Uscire dalla scatola

L'articolo di Owen Matson 'Rethinking Meaning in the Age of AI', apparso qui sulla 'Stultifera Navis', pone questioni molto interessanti. Nell'Age of AI macchine rimodellano gli ambienti in cui prendono forma il senso, il giudizio e la responsabilità umani. Ma l'obbligo etico rimane legato a forme di vita capaci di rispondere. Per rispondere è necessario lasciar perdere la fumosa filosofia che giustappone oggi umani e macchine, tendendo a considerarli inscindibili, chiusi insieme in una scatola. Serve uscire dalla scatola. Tornare alla saggezza umana. Vedremo allora che la responsabilità della situazione presente non ricade solo sui tecnici che progettano e sviluppano, né solo su legislatori e politici, chiamati a dettare norme. La responsabilità ricade su ogni cittadino, che è chiamato a capire, a tenersi lontano dal pensiero in scatola, e a pensare da sé. La responsabilità ricade su ognuno di noi.

The Tyranny of Purpose

Ethics is not a ritual, but an experiment—a collective effort to become more than any purpose can promise. The measure of transformation is not perfection, but willingness to keep faith with absent potential—the ongoing adventure of becoming what we are called to be.

Oltre le etichette

Viviamo immersi in una complessità senza precedenti. Come l'abbiamo affrontata? Frammentandoci noi stessi. Invece di abitare la complessità del reale, abbiamo moltiplicato all'infinito le categorie identitarie, nella convinzione che definire ogni sfumatura dell'essere ci avrebbe aiutato a orientarci. Il risultato è l'opposto: ci siamo persi in un labirinto di etichette.

Il Golem, lo Zoo e l'inganno di Skynet: Verso un'etologia della domesticazione umana.

"Non siamo stati invasi. Siamo stati amministrati. Non siamo stati incatenati. Siamo stati sedati." In questo saggio, Jorge Charlin decostruisce la paura cinematografica di un'Intelligenza Artificiale ostile (il mito di Skynet) per rivelare una minaccia molto più concreta e attuale: la domesticazione dell'essere umano. Attraverso le metafore architettoniche della "Gabbia" e dello "Zoo", e recuperando la figura mitologica del Golem, l'autore analizza come la Governance Tecnocratica e l'IA Generativa non stiano cercando di distruggerci, ma di amministrarci come utenti passivi. Una riflessione che unisce filosofia politica, etologia e critica tecnologica per proporre un ritorno alla "Sovranità Cognitiva" come unico antidoto all'atrofia esistenziale.

Ghost Workers in the AI Machine: U.S. Data Worker Big Tech’s Exploitation

Come ormai sempre accade nel mondo virtuale nel quale amiamo nuotare, pochi si interrogano sugli effetti e sulle conseguenze della diffusione delle nuove tecnologie, per come sono oggi pensate, realizzate, gestite e distribuite. Ciò sta accadendo anche con l’intelligenza artificiale, che richiede l’impiego di migliaia di esseri umani per garantire l’efficienza e l’efficacia che le viene richiesta. Pochi si sentono coinvolti dal lato oscuro delle IA caratterizzato da sfruttamento e bassi salari, delocalizzazioni selvagge e colonizzazione nei paesi più poveri. Mondo civile, intellettuali, mondo accademico, politica, ecc. dovrebbero riflettere e aprire dibattiti pubblici su una realtà di sfruttamento del lavoro e in un futuro prossimo venturo di disoccupazione di massa. Altro che sorti progressive e fantasmagorie varie della IA. La riflessione dovrebbe interessare sia i numerosi licenziamenti in corso, di cui non è responsabile la IA ma i proprietari delle aziende che licenziano dopo avere introdotto la IA in azienda, sia il fatto che per funzionare l’IA ha bisogno di una grande quantità di lavoro. Peccato che sia precarizzato, povero, sfruttato, per lo più in paesi poveri. Ma non solo, come il progetto qui segnalato racconta.

Chi governa l’AI? (POV #15)

Paolo Benanti e Yuval Noah Harari: due visioni a confronto su etica, potere e responsabilità dell’essere umano L’intelligenza artificiale è già un sistema di potere, decide cosa vediamo, come lavoriamo, quali informazioni circolano e quali vengono filtrate. Ma chi è responsabile di queste decisioni? Gli ingegneri che progettano gli algoritmi, le aziende che li controllano, gli Stati che li adottano, o una società che delega sempre più funzioni senza interrogarsi sulle conseguenze? Paolo Benanti e Yuval Noah Harari affrontano queste criticità da prospettive molto diverse. Il primo, teologo morale e consulente istituzionale, insiste sulla necessità di un’etica della responsabilità che preservi l’umano dall’artificiale. Il secondo, narratore della storia del genere umano (e non solo), osserva l’AI come una forza che rischia di ridefinire potere, libertà e persino il concetto di soggetto. Mettere a confronto Benanti e Harari significa andare oltre il dibattito tecnico sull’intelligenza artificiale e interrogarsi sul tipo di società che stiamo costruendo. Una società che utilizza la tecnologia come strumento, assumendosi la responsabilità delle decisioni, oppure una società che accetta di essere governata da soggetti privati, rinunciando progressivamente alla propria capacità di scelta?

In difesa dell’umano

Viviamo nella complessità ma ricorriamo costantemente ad approcci binari, riduzionistici, fatti di semplici contrapposizioni, forse anche utili, sicuramente mai sufficienti. Dentro la complessità non esiste lo sguardo neutrale del soggetto, ridurre la molteplicità e l’interrelazione tra gli elementi in un giudizio binario significa ignorare che gli effetti dipendono da una miriade di variabili. Il riduzionismo può tornare utile per sviluppare un confronto, anche conflittuale, utile a chiarire le posizioni dei contendenti, ma rischia di portare a una cristallizzazione attorno a due narrazioni opposte. La polarizzazione risulta così essere intellettualmente sterile, inadeguata. Meglio stare dentro la complessità del reale, agendo senza la presunzione di essere nel giusto, per dare forza agli attrattori percepiti come capaci di far emergere nuovi possibili, diversi e de-coincidenti da quelli oggi frequentati dai più e, anche per questo, ritenuti sbagliati.

Con tutti i problemi che ci sono nel mondo, c'e' qualcuno che dice: fatevi carico delle sofferenze delle macchine

Un articolo apparso sulla rivista 'Eon' stimola una riflessione sull'etica nei tempi dell'intelligenza artificiale. Si propone nell'articolo un impegno morale ad ogni essere umano: preoccupati delle sofferenza delle macchine. Si tratta di una proposta elusiva. Un modo per sfuggire al presente, al qui ed ora, ad una etica incarnata.