Milano 15 maggio, giornata splendida, in visita alla Hoepli, libreria resistente e dove è ancora possibile cercare e trovare libri tra i molti esposti, spesso solo impilati a casaccio sugli espositori, non necessariamente ordinati.
Alla ricerca di libri strani, originali, alternativi, introvabili su Amazon ma anche in altre librerie, durante la visita un pensiero maligno si è fatto strada tra le mie sinapsi.
Quanti sono i libri esposti prodotti con ChatGPT o con il suo aiuto?
Un pensiero scontato, visto quanto è successo con “l’autore non autore” del libro Ipnocrazia che ha evidenziato la difficoltà (anche mia) a orientarsi, a fare i conti con le proprie conoscenze, a fare scelte dettate dall’ignoranza e dalla scarsa conoscenza, dalla difficoltà crescente a mantenersi lucidi, resistendo a scelte gratificanti, messe in moto da abili campagne promozionali e di marketing (titolo, copertina, incipit, riferimenti ad autori e concetti espressi nella sinossi, ecc.).
L’evento Ipnocrazia è ormai passato, superato, il fenomeno ha perso la sua presa sull’interesse generale, come ogni altra cosa in quest’era capace di agglutinare tutto, anche le idee (prodotti) più originali (in realtà non si inventa mai nulla di nuovo!), elaborate per fare colpo e alimentare il dibattito e l’interesse mediale pubblico.
Quello che è rimasto, almeno per me, di quell’evento (di cui ci sono tracce numerose sul progetto della STULTIFERANAVIS da me cofondato con Francesco Varanini), è una maggiore difficoltà a fare delle scelte, a scegliere quale sia “la realtà” a cui credere. Il che si traduce anche in un malessere più profondo, la perdita di riferimenti solidi, di idee forti perché sostenute da fonti cert(ificat)e, di valori come verità, autenticità, identità e non solo.
Che l’IA ci stia abituando (sostituendo) nella creazione di narrazioni, di risposte, di soluzioni e anche di concetti, può essere facilmente accettabile, ma se comincia a produrre anche autori, filosofi, domani medici e ingegneri, forse una riflessione più approfondita andrebbe fatta.
Andrebbe fatta anche perché, per quanto è stato raccontato, l’operazione Ipnocrazia sembra avere funzionato, molti ci hanno creduto, e questo è un problema.
Non il libro in sé, ma il fatto che molti ci siano cascati, evidenziando il sintomo di una fragilità, di una debolezza tutta umana come quella di lasciarsi cullare dentro uno storytelling accattivante e convincente, di farsi coinvolgere in attività ben costruite e ben presentate, ancor più ben spiegate nella fase tipica del “post-vendita”. Una fase nella quale, in questo caso, non era previsto alcuno storno, ma veniva richiesta la compartecipazione gaudente e acclamatoria alla bontà dell’idea e dell’iniziativa, peraltro non considerata conclusa come in ogni buona programmazione marketing.
Nessun dubbio sulla bontà dell’iniziativa (quanto avrà goduto lo pseudo-autore?), ma quanto più difficoltoso è diventato ora tracciare un confine tra ciò che è vero e ciò che è falso, tra ciò (l’autore) che esiste e ciò che è stato inventato (lo pseudo autore, il dispositivo), tra ciò che è credibile e ciò che è stato abilmente venduto come tale?
E’ una difficoltà in aumento, determinata dalla volontà di potenza e dalla forza di accelerazione delle tecnologie di Intelligenza Artificiale, che dalla semplice elaborazione dati sono ora arrivate a fare previsioni ,a suggerire soluzioni, a risolvere problemi, a creare e a immaginare al posto nostro, a scrivere articoli, tesi di laurea, paper scientifici e anche libri, ma soprattutto a dare forma, personalità e vita reale ad autori, siano essi filosofi, scrittori e divulgatori, o semplici influencer.
Sempre più incollati allo schermo viviamo dentro la dimensione descritta dal testo di Ipnocrazia, ma siamo anche sempre più incapaci a comprendere se e quanto questa dimensione sia reale o meno o una semplice costruzione artificiale finalizzata a guidare le nostre percezioni, alterandole e manipolandole, e a plasmare la nostra capacità creativa e di immaginazione.
Cyborg cognitivi quali siamo diventati, tutti plasmati dalla nostra ibridazione tecnologica e cognitiva (ma non siamo ibridati da sempre?) e dalle nostre pratiche digitali online quotidiane, condizionati dal nostro inconscio tecnologico, forse non ci rimane che provare a comprendere la sensazione che abbiamo di avere ormai perso il controllo della realtà (Chi scrive? Chi pensa? Chi decide?) per non potere più vederla chiaramente per quello che essa è.
Non siamo obbligati a credere a tutto, anche nel passato siamo sempre stati soggetti e oggetti di credulità varie, ma ora la situazione è diversa perché ci dobbiamo interrogare, anche filosoficamente, se e quanto le informazioni prodotte, anche in processi ibridati, dalle Intelligenze Artificiali siano affidabili, coerenti, ecc., se e quanto sia accettabile produrre informazioni (testi, libri) con le IA.
La sfida che tutti, filosofi o meno che possiamo essere, siamo chiamati ad affrontare è che più della ricerca della verità e della capacità di riconoscere il vero dal falso, ciò che più conta è bucare la trance collettiva, rompere il velo di Maya artificiale, che ha catturato moltitudini, per cercare di apprendere come fare a abitare in modo (tecno)consapevole e responsabile la complessità di una realtà che vive ormai su confini labili, a volte insuperabili, tra verità e finzione, tra umano e macchina artificiale, tra individuale e collettivo.
La consapevolezza passa dalla conoscenza e dalla comprensione anche di ciò che è nuovo, dalla curiosità che porta alla sperimentazione e al coinvolgimento, forse anche allo shock.
Ciò che ne deriva è una maggiore capacità, anche critica, di interpretare, analizzare e comprendere per poi responsabilmente decidere se resistere o meno agli eccessi di soluzioni come quelle di IA e opporsi ai disegni di dominio del mondo di chi le ha create e sviluppate. Contro il sistema ipnocratico descritto nel libro!
Non siamo obbligati a masticare tutto, a digerire tutto, a dire di sì a tutto, neppure alle IA!