NOVITA'[1835]
L'uso dannoso della IA è già in atto
Yoshua Bengio, considerato da molti uno dei padrini dell'intelligenza artificiale, è da tempo in prima linea nella ricerca sull'apprendimento automatico. Negli ultimi anni le sue opinioni sulla tecnologia sono cambiate. Non a caso è impegnato a spiegare quali possano essere i rischi posti dall'intelligenza artificiale e a suggerire cosa si potrebbe fare per sviluppare un'intelligenza artificiale più sicura e attenta ai bisogni dell'essere uano.
Perché l'introduzione acritica dell'intelligenza artificiale nelle scuole è un problema?
Le linee guida ministeriali parlano di "utilizzo etico", di "mitigazione dei rischi", ma questo linguaggio rischia di fare l'effetto della proverbiale foglia di fico, a nascondere le pudenda di un'operazione che non può per definizione essere etica, né mitigata in alcun modo nel momento in cui a portarla avanti è Big Tech. La professoressa Daniela Tafani ci aiuta a comprenderne le ragioni:
La fine della storia: Quando l'etica divenne opzionale
Verrà un giorno, molto tempo dopo che il fumo si sarà diradato e i server saranno spenti, qualche civiltà aliena lontana studierà i resti del nostro pianeta e farà l'unica domanda che conta: Come potevano sapere così tanto e capire così poco?
Un confine sottile. Tra l'incapacità di essere più chiari e l'uso artato nell’oscurità
Un pensiero critico ridotto a feticcio e simulacro è il mezzo oggi usato per celebrare il nuovo Moloch: la cosiddetta 'intelligenza artificiale'.
Il ritorno ai miti greci: una necessità per l'Occidente smarrito
Testo scritto insieme a Benedetta Mastroviti. Un mondo che non significa nulla non produce solo disagio esistenziale: produce ignoranza. Per questo serve tornare ai miti.
La Morte di Eros: Come la tecnologia sta eliminando l'attrito che ci rende umani
La Morte di Eros: Perché la comodità digitale ci sta estinguendo. Nel 1968, l'esperimento "Universo 25" dimostrò che l'abbondanza senza sfide porta all'estinzione sociale. Oggi, l'Intelligenza Artificiale ci offre una gabbia dorata simile: una vita senza dolore, senza sforzo e senza Eros. Un'analisi su come la tecnologia agisce come una "madre iperprotettiva" che atrofizza la nostra volontà e perché la vera ribellione del XXI secolo consiste nell'abbracciare la difficoltà.
The Tyranny of Purpose
Ethics is not a ritual, but an experiment—a collective effort to become more than any purpose can promise. The measure of transformation is not perfection, but willingness to keep faith with absent potential—the ongoing adventure of becoming what we are called to be.
O Medo da IA e o Fim do Monopólio da História
La paura del cosiddetto "establishment" (vecchi media, accademia tradizionale, ecc.) non è che ci facciamo ingannare da un robot. La loro paura è che, con l'aiuto della macchina, scopriremo di essere stati ingannati dagli esseri umani per tutto questo tempo.
Tecnolog-IA e stato di umana minorità: per pigrizia e per viltà!
Provate a pensarci, viviamo tempi di grandi e profonde trasformazioni, ci raccontiamo di essere protagonisti del loro accadere, ma in realtà, come esseri umani, ci siamo arenati, corriamo sempre di più, ma siamo fermi, anzi stiamo regredendo, andando all’indietro, siamo diventati i protagonisti della nostra stessa potenziale e possibile (auto)distruzione.
Una Lettura Critica di "The Art of Misuse" di Jon Ippolito
"The Art of Misuse" di Jon Ippolito rappresenta un contributo teorico fondamentale alla comprensione dell'arte tecnologica. La sua forza risiede nella capacità di articolare un principio operativo, la misuse deliberata e intelligente, che attraversa decenni di pratica artistica e che continua a essere rilevante nell'era dell'intelligenza artificiale e delle piattaforme digitali. Il saggio offre una lente critica per distinguere tra diverse modalità di relazione con la tecnologia (management, mismanagement, mistificazione, misuse) e sottolinea la dimensione intrinsecamente politica dell'intervento artistico sui dispositivi tecnici. La tecnologia, nel pensiero e nelle pratiche artistiche di Ippolito, non è mai neutrale: incorpora sempre specifiche visioni del mondo, relazioni di potere e concezioni dell'agency umana.
Oltre le etichette
Viviamo immersi in una complessità senza precedenti. Come l'abbiamo affrontata? Frammentandoci noi stessi. Invece di abitare la complessità del reale, abbiamo moltiplicato all'infinito le categorie identitarie, nella convinzione che definire ogni sfumatura dell'essere ci avrebbe aiutato a orientarci. Il risultato è l'opposto: ci siamo persi in un labirinto di etichette.
“Io sono l’eco, tu sei l’origine” *
Dalle immagini di un film visionario, agli effetti che le moderne tecnologie producono nelle nostre vite. Di fronte allo strapotere di un pugno di aziende che gestiscono risorse economiche e tecnologie in misura inimmaginabile anche solo in un recente passato, è comprensibile e anche molto umano osservare con passivo disincanto il corso degli eventi, considerando inevitabile quanto accade. Eppure, è proprio nell’idea racchiusa in quella parola - inevitabile - che si cela il rischio di diventare inconsapevolmente complici di un disegno che nulla si cura di quanto accade alle nostre vite. Siamo tutti disposti a definire pazzi gli ideologi del transumanesimo, meno attenti a chiederci se in qualche modo non stiamo contribuendo a questa deriva. Una lunga riflessione e un invito a non abbandonare mai la curiosità, lo spirito critico, la libertà di pensare, a dispetto degli eventi.
Il Golem, lo Zoo e l'inganno di Skynet: Verso un'etologia della domesticazione umana.
"Non siamo stati invasi. Siamo stati amministrati. Non siamo stati incatenati. Siamo stati sedati." In questo saggio, Jorge Charlin decostruisce la paura cinematografica di un'Intelligenza Artificiale ostile (il mito di Skynet) per rivelare una minaccia molto più concreta e attuale: la domesticazione dell'essere umano. Attraverso le metafore architettoniche della "Gabbia" e dello "Zoo", e recuperando la figura mitologica del Golem, l'autore analizza come la Governance Tecnocratica e l'IA Generativa non stiano cercando di distruggerci, ma di amministrarci come utenti passivi. Una riflessione che unisce filosofia politica, etologia e critica tecnologica per proporre un ritorno alla "Sovranità Cognitiva" come unico antidoto all'atrofia esistenziale.
Cinque saggi su nichilismo e crisi della democrazia
I saggi qui raccolti interrogano la condizione politica contemporanea a partire dal nesso strutturale tra nichilismo, rappresentanza e democrazia. Attraverso un percorso che intreccia filosofia politica, teoria critica, storia delle idee ed estetica, i saggi analizzano la disaffezione politica non come semplice apatia, ma come sintomo di una crisi più profonda del legame comunitario e della capacità di immaginare alternative al presente. Ne emerge un quadro unitario: il nichilismo politico non coincide con il vuoto di senso, ma con l’impossibilità di trasformarlo, rendendo urgente una riflessione sulle condizioni teoriche e storiche per una possibile reinvenzione della democrazia.
Ghost Workers in the AI Machine: U.S. Data Worker Big Tech’s Exploitation
Come ormai sempre accade nel mondo virtuale nel quale amiamo nuotare, pochi si interrogano sugli effetti e sulle conseguenze della diffusione delle nuove tecnologie, per come sono oggi pensate, realizzate, gestite e distribuite. Ciò sta accadendo anche con l’intelligenza artificiale, che richiede l’impiego di migliaia di esseri umani per garantire l’efficienza e l’efficacia che le viene richiesta. Pochi si sentono coinvolti dal lato oscuro delle IA caratterizzato da sfruttamento e bassi salari, delocalizzazioni selvagge e colonizzazione nei paesi più poveri. Mondo civile, intellettuali, mondo accademico, politica, ecc. dovrebbero riflettere e aprire dibattiti pubblici su una realtà di sfruttamento del lavoro e in un futuro prossimo venturo di disoccupazione di massa. Altro che sorti progressive e fantasmagorie varie della IA. La riflessione dovrebbe interessare sia i numerosi licenziamenti in corso, di cui non è responsabile la IA ma i proprietari delle aziende che licenziano dopo avere introdotto la IA in azienda, sia il fatto che per funzionare l’IA ha bisogno di una grande quantità di lavoro. Peccato che sia precarizzato, povero, sfruttato, per lo più in paesi poveri. Ma non solo, come il progetto qui segnalato racconta.
Dove finiranno i siti web nell’era della Tecnolog-IA e delle macchine?
Uno dei dibattiti minori, per me più interessanti e curiosi del momento, sulle tante trasformazioni indotte dalla rivoluzione delle intelligenze artificiali generative è su che fine faranno i siti web, ora che i motori di ricerca, per soddisfare i loro bulimici bisogni di contenuti, di risorse e di guadagno, sono obbligati a cambiare modelli di business, algoritmi, logiche operative e funzionali, a causa del collasso di click che stanno sperimentando. Un collasso che sembra lento ma che potrebbe trovare una rapida e forte accelerazione nel breve tempo.
Chi governa l’AI? (POV #15)
Paolo Benanti e Yuval Noah Harari: due visioni a confronto su etica, potere e responsabilità dell’essere umano L’intelligenza artificiale è già un sistema di potere, decide cosa vediamo, come lavoriamo, quali informazioni circolano e quali vengono filtrate. Ma chi è responsabile di queste decisioni? Gli ingegneri che progettano gli algoritmi, le aziende che li controllano, gli Stati che li adottano, o una società che delega sempre più funzioni senza interrogarsi sulle conseguenze? Paolo Benanti e Yuval Noah Harari affrontano queste criticità da prospettive molto diverse. Il primo, teologo morale e consulente istituzionale, insiste sulla necessità di un’etica della responsabilità che preservi l’umano dall’artificiale. Il secondo, narratore della storia del genere umano (e non solo), osserva l’AI come una forza che rischia di ridefinire potere, libertà e persino il concetto di soggetto. Mettere a confronto Benanti e Harari significa andare oltre il dibattito tecnico sull’intelligenza artificiale e interrogarsi sul tipo di società che stiamo costruendo. Una società che utilizza la tecnologia come strumento, assumendosi la responsabilità delle decisioni, oppure una società che accetta di essere governata da soggetti privati, rinunciando progressivamente alla propria capacità di scelta?
Intervista ImPossibile a Alan Turing (IIP #15)
I limiti dell’intelligenza Alan M. Turing non ha mai cercato di definire l’intelligenza in senso astratto. Non gli interessava stabilire che cosa sia il pensiero, ma capire come si manifesta, quali condizioni operative lo rendono osservabile, discutibile, misurabile.
Ci siamo impantanati…anche con e grazie alle IA
Viviamo l’era delle macchine, della tecnolog-IA, della palude digitale. Ci sentiamo immersi in questa realtà, sempre coinvolti, in realtà vi siamo dentro, esistenzialmente impantanati. Ne deriva un senso di immobilità (si corre rimanendo sullo stesso posto), bloccati dentro un presente continuo che ha catturato la nostra attenzione, ci ha intorpidito la mente, bloccandoci dentro bolle cognitive, mettendoci al servizio di algoritmi che ci impediscono di pensare (doomscrolling), di fare delle scelte, di coltivare pensiero e immaginazione.