Ghost Workers in the AI Machine: U.S. Data Worker Big Tech’s Exploitation

Come ormai sempre accade nel mondo virtuale nel quale amiamo nuotare, pochi si interrogano sugli effetti e sulle conseguenze della diffusione delle nuove tecnologie, per come sono oggi pensate, realizzate, gestite e distribuite. Ciò sta accadendo anche con l’intelligenza artificiale, che richiede l’impiego di migliaia di esseri umani per garantire l’efficienza e l’efficacia che le viene richiesta. Pochi si sentono coinvolti dal lato oscuro delle IA caratterizzato da sfruttamento e bassi salari, delocalizzazioni selvagge e colonizzazione nei paesi più poveri. Mondo civile, intellettuali, mondo accademico, politica, ecc. dovrebbero riflettere e aprire dibattiti pubblici su una realtà di sfruttamento del lavoro e in un futuro prossimo venturo di disoccupazione di massa. Altro che sorti progressive e fantasmagorie varie della IA. La riflessione dovrebbe interessare sia i numerosi licenziamenti in corso, di cui non è responsabile la IA ma i proprietari delle aziende che licenziano dopo avere introdotto la IA in azienda, sia il fatto che per funzionare l’IA ha bisogno di una grande quantità di lavoro. Peccato che sia precarizzato, povero, sfruttato, per lo più in paesi poveri. Ma non solo, come il progetto qui segnalato racconta.

Dove finiranno i siti web nell’era della Tecnolog-IA e delle macchine?

Uno dei dibattiti minori, per me più interessanti e curiosi del momento, sulle tante trasformazioni indotte dalla rivoluzione delle intelligenze artificiali generative è su che fine faranno i siti web, ora che i motori di ricerca, per soddisfare i loro bulimici bisogni di contenuti, di risorse e di guadagno, sono obbligati a cambiare modelli di business, algoritmi, logiche operative e funzionali, a causa del collasso di click che stanno sperimentando. Un collasso che sembra lento ma che potrebbe trovare una rapida e forte accelerazione nel breve tempo.

Chi governa l’AI? (POV #15)

Paolo Benanti e Yuval Noah Harari: due visioni a confronto su etica, potere e responsabilità dell’essere umano L’intelligenza artificiale è già un sistema di potere, decide cosa vediamo, come lavoriamo, quali informazioni circolano e quali vengono filtrate. Ma chi è responsabile di queste decisioni? Gli ingegneri che progettano gli algoritmi, le aziende che li controllano, gli Stati che li adottano, o una società che delega sempre più funzioni senza interrogarsi sulle conseguenze? Paolo Benanti e Yuval Noah Harari affrontano queste criticità da prospettive molto diverse. Il primo, teologo morale e consulente istituzionale, insiste sulla necessità di un’etica della responsabilità che preservi l’umano dall’artificiale. Il secondo, narratore della storia del genere umano (e non solo), osserva l’AI come una forza che rischia di ridefinire potere, libertà e persino il concetto di soggetto. Mettere a confronto Benanti e Harari significa andare oltre il dibattito tecnico sull’intelligenza artificiale e interrogarsi sul tipo di società che stiamo costruendo. Una società che utilizza la tecnologia come strumento, assumendosi la responsabilità delle decisioni, oppure una società che accetta di essere governata da soggetti privati, rinunciando progressivamente alla propria capacità di scelta?

Ci siamo impantanati…anche con e grazie alle IA

Viviamo l’era delle macchine, della tecnolog-IA, della palude digitale. Ci sentiamo immersi in questa realtà, sempre coinvolti, in realtà vi siamo dentro, esistenzialmente impantanati. Ne deriva un senso di immobilità (si corre rimanendo sullo stesso posto), bloccati dentro un presente continuo che ha catturato la nostra attenzione, ci ha intorpidito la mente, bloccandoci dentro bolle cognitive, mettendoci al servizio di algoritmi che ci impediscono di pensare (doomscrolling), di fare delle scelte, di coltivare pensiero e immaginazione.

How to Survive Artificial Intelligence: dialogo Stultifero con Giorgio Griziotti

Il termine "intelligenza artificiale" (IA) è diventato la parola (con)vincente degli ultimi tre anni, dall'arrivo sul mercato della ChatGPT, seguita a ruota da tutte le altre IA generative. A prevalere nella narrazione conformistica dominante è la celebrazione delle opportunità, delle possibilità di sviluppo e delle potenzialità delle nuove tecnolog-IA. Poi ci sono le narrazioni critiche, riflessive, finalizzate a suggerire un approfondimento per una migliore comprensione, non soltanto delle nuove tecnologie in sé, ma soprattutto dei loro effetti e delle loro conseguenze. Tra queste riflessioni c'è quella di Giorgio Griziotti, autore di un saggio, How to survive artificial intelligence. Intelligenza artificiale, tecnofascismo e guerra, nel quale invita a riflettere sul fatto di vivere dentro "una catastrofe in corso", riflessa in molte narrazioni sulle IA, opposte e semplificate, che stanno animando il dibattito pubblico.

¡Feliz Navidad desde un país vestido de fiesta!

Pronto llegarán los desfiles de Carnaval con innovadoras herramientas de muerte disfrazadas de paz. Presto arriveranno le sfilate di Carnevale con innovativi strumenti di morte travestiti da pace. Soon the Carnival parades will arrive with innovative tools of death disguised as peace. Bientôt, les défilés du Carnaval arriveront, porteurs d'instruments de mort innovants déguisés en symboles de paix.

Luca e il futuro

Racconto "Non sapeva ancora dove fosse diretto, ma capì che la sua strada non sarebbe stata una freccia di direzione, ma una costellazione. E per la prima volta dopo mesi, l'odore di carta stanca della biblioteca gli sembrò più fresco, mescolandosi al grintoso profumo di possibilità......"

L'insopportabile stupidità dell'anti-intelletualismo

L'anti-intellettualismo vince facendo sembrare l'analisi illegittima. L'unica risposta è rendere l'analisi non negoziabile. Quando attaccano il metodo, reindirizza la sostanza. "Stai criticando COME argomento perché non puoi confutare QUELLO che sto sostenendo. Attiva la sostanza o capiremo entrambi perché non lo fai." L'anti-intellettualismo non è pluralismo o autenticità. È il modo in cui il potere impone la stupidità e la chiama verità.

Che ne sarà della ‘bella’ prosa argomentativa al tempo dell’AI?

Viviamo in un'epoca di preoccupazioni insistenti sull'intelligenza artificiale. Si discute di posti di lavoro a rischio, di bias algoritmici, di deepfake, di disinformazione, di scenari dove macchine superintelligenti sfuggono al controllo umano. Questi sono problemi reali e meritano l'attenzione che ricevono. Ma mentre il dibattito pubblico si concentra su queste minacce visibili e misurabili, un tipo diverso di trasformazione sta avvenendo quasi inosservato, nelle pratiche intellettuali ordinarie di milioni di persone colte. Sto parlando dell'abitudine crescente di delegare all'intelligenza artificiale la sintesi di testi e documenti - pratica che appare non solo innocua ma genuinamente utile, forse persino necessaria per gestire il sovraccarico informativo contemporaneo. Chi non ha usato almeno una volta uno strumento di sintesi per risparmiare tempo su un documento lungo? Chi non ha apprezzato la capacità dell'AI di estrarre i "punti chiave" da un saggio denso in pochi secondi? L'efficienza è considerevole, i benefici apparenti sono immediati. Eppure credo che questa pratica, proprio nella sua naturalezza e utilità evidente, nasconda un rischio culturale profondo: mettere fine a una tradizione millenaria, quella della bella prosa argomentativa.

Stultiferanavis: produrre conoscenza, fare opinione!

L’immagine della Stultiferanavis che vogliamo emerga non è una entità statica, è un processo in continuo divenire, un continuo presentarsi. Per questo motivo non esiste una descrizione statica del progetto ma sulla nave sono presenti molteplici racconti dedicati a raccontare la nave nel suo navigare. La nave sta dentro le crisi dell’era delle macchine, ne attraversa i codici, gli effetti, le crepe e gli interstizi. Non offre soluzioni perché non ha dogmi o istanze di fede a cui aggrapparsi o da predicare. Propone una forma comunitaria di esperienze intellettuali ed esistenziali. L’approccio comunitario serve per assumere le differenze che caratterizzano i naviganti (gli autori) saliti a bordo, un modo per amplificare l’efficacia della collaborazione e dell’azione collettiva. Nel testo che segue provo a raccontare la Stultiferanavis come luogo di conoscenza utile per fare opinione, sia essa individuale o pubblica.

In difesa dell’umano

Viviamo nella complessità ma ricorriamo costantemente ad approcci binari, riduzionistici, fatti di semplici contrapposizioni, forse anche utili, sicuramente mai sufficienti. Dentro la complessità non esiste lo sguardo neutrale del soggetto, ridurre la molteplicità e l’interrelazione tra gli elementi in un giudizio binario significa ignorare che gli effetti dipendono da una miriade di variabili. Il riduzionismo può tornare utile per sviluppare un confronto, anche conflittuale, utile a chiarire le posizioni dei contendenti, ma rischia di portare a una cristallizzazione attorno a due narrazioni opposte. La polarizzazione risulta così essere intellettualmente sterile, inadeguata. Meglio stare dentro la complessità del reale, agendo senza la presunzione di essere nel giusto, per dare forza agli attrattori percepiti come capaci di far emergere nuovi possibili, diversi e de-coincidenti da quelli oggi frequentati dai più e, anche per questo, ritenuti sbagliati.

Con tutti i problemi che ci sono nel mondo, c'e' qualcuno che dice: fatevi carico delle sofferenze delle macchine

Un articolo apparso sulla rivista 'Eon' stimola una riflessione sull'etica nei tempi dell'intelligenza artificiale. Si propone nell'articolo un impegno morale ad ogni essere umano: preoccupati delle sofferenza delle macchine. Si tratta di una proposta elusiva. Un modo per sfuggire al presente, al qui ed ora, ad una etica incarnata.

Architetti della disuguaglianza

Il newsmagazine 'Time' nomina 'Person of the Year' gli 'Architects of AI'. L'articolo che annuncia la nomina è in realtà una ambigua accettazione di una situazione economica e politica proiettata verso un incremento della forbice tra ricchezza e povertà. Dove la ricchezza è sempre più nelle mani di una ristretta élite di cui i tecno-scienziati sono la facciata esemplare. Più che dci 'Architetti dell'AI' si può dunque parlare di 'Architetti della disuguaglianza'.

La Trappola dell'Oracolo: Perché l'IA deve imparare a tacere

Non cercate la risposta perfetta. Cercate la domanda difficile. L'educazione del futuro non riguarda le risposte, ma la capacità di porre la domanda giusta. L'Occidente sta commettendo un errore fatale: usare l'IA come un Oracolo che fornisce risposte immediate, creando atrofia mentale. Questo articolo propone il "Progetto Socrate": un'architettura dove la tecnologia agisce come uno specchio per creare attrito cognitivo, non per eliminarlo. Una riflessione su come l'imperfezione biologica sia il nostro vero vantaggio competitivo.

Un mio esempio di empowerment femminile

Le tecniche moderne di empowerment femminile sono state intrecciate e abilmente nascoste nelle reazioni agli avvenimenti della vita delle protagoniste dei romanzi di Hornby. Le esperienze concrete della vita vissuta, parole compassionevoli, riflessione filosofica pacata e facile da comprendere dei suoi libri hanno avuto un effetto potentissimo sul mio empowerment femminile.