Per comprendere il significato e la portata della rivoluzione paradigmatica tecnologica è necessario prima di tutto cercare di conoscerne le caratteristiche e di comprenderla, collocarla nel contesto del progresso scientifico attuale. Un modo per comprendere è leggere e approfondire. È quello che ho fatto anche questa volta leggendo il libro di Davide Picca e Alberto Romele: ChatGPT e le intelligenze artificiali. Il professore Romele mi aveva in passato onorato di una bella intervista (La tecnologia non è mai stata neutrale. Ha sempre modificato la nostra relazione col mondo) nell’ambito dell’iniziativa Filosofia e Tecnologia legata al mio progetto online SoloTablet. Oggi insieme al co-autore del libro Davide Picca, mi ha dato l’opportunità di dialogare con loro su argomenti che ho tratto, di mia scelta, dal suo ultimo libro.
“Il progresso scientifico e tecnologico non è comprensibile se separiamo scienza e società o privilegiamo gli esseri umani rispetto agli oggetti. La costruzione della conoscenza e delle pratiche scientifiche è il risultato di una collaborazione tra attori umani e non-umani.” (ChatGPT e le intelligenze artificiali di Davide Picca e Alberto Romele)
In questa intervista Carlo Mazzucchelli dialoga con Davide Picca e Alberto Romele, autore del libro ChatGPT e le intelligenze artificiali – Una biografia intellettuale, pubblicato da Fandango.
Buongiorno Prof. Picca e Prof. Romele. Ho letto con interesse il vostro libro sulle IA generative, tecnologie che stanno cambiando il nostro modo di conoscere, di pensare, di esprimerci, di immaginare e di creare. La rivoluzione è paradigmatica, è sotto gli occhi di tutti, sta già coinvolgendo moltitudini, spesso portatori di un atteggiamento passivo e di delega che obbliga a riflessioni che vanno ben oltre la stessa tecnologia. Passivo non sembra essere stato l’uso che lei ha fatto della ChatGPT nella scrittura di questo libro. Voi rivendicate un uso intelligente del “prompting” seguito dalla riflessione e collaborazione tra i due autori del libro per esprimere una valutazione umana delle soluzioni e delle risposte proposte dalla ChatGPT. Rivendicate anche il fatto che oggi “è inconcepibile pensare di scrivere un libro senza strumenti d’intelligenza artificiale”. Condivido con voi il fatto che non si possa non tenere conto delle nuove tecnologie e che ogni cosa che scriviamo o facciamo è sempre e solo una piccola aggiunta su idee sedimentate dentro la storia intellettuale che ci precede. Non credete però che lasciandoci catturare dalle IA (“Macchine al cielo emulatrici” – Leopardi) e dalle loro narrazioni rischiamo di lasciare loro il passo e dimenticare la condizione umana? Voi cosa ne pensate? Ci raccontate anche che uso è stato fatto di ChatGPT per la composizione e stesura del libro?
Lei ha perfettamente ragione: la tentazione ad abbandonarsi al primo risultato di un prompt e, più in generale, alle scelte della macchina è alta. I testi prodotti da ChatGPT sembrano migliori dei nostri, più lineari e coerenti in ogni caso, ovvero più “puliti”. Ciò provoca in noi una vera e propria vergogna prometeica, che ci spinge non solo, come dicevamo, a scegliere i prodotti della macchina piuttosto che i nostri, che sono spesso “sporchi”, ma anche ad adattare le nostre produzioni culturali al linguaggio – testuale, visuale e sonoro – delle macchine. Insomma, siamo spinti verso un addomesticamento dell’umano.
Per altro, è bene ricordare che questo addomesticamento non è nuovo e che è proprio attraverso un lungo processo di addomesticamento della ragione, ma anche dei comportamenti e delle pratiche, che siamo arrivati a produrre le intelligenze artificiali contemporanee. Tuttavia, noi pensiamo che i testi prodotti con ChatGPT, per quanto “puliti” – messe a parte le famose allucinazioni – siano anche lisci, innocui e noiosi. Si limitano a grattare la superficie delle cose.
Quando parliamo di prompting intelligente, intendiamo proprio una pratica di iterazione con la macchina per non accontentarci del primo risultato, per rilanciare, correggere, integrare e magari buttare tutto ciò che la macchina ha scritto per redigerlo di nostro pugno. Nel caso della composizione del libro è vero, abbiamo usato ChatGPT come molti altri strumenti digitali.
Lo abbiamo usato, principalmente, per rendere stilisticamente coerenti le diverse parti del testo, visto che è il risultato del lavoro di due autori con background diversi – e con l’abitudine di scrivere in inglese o francese. Lo abbiamo usato anche per semplificare alcuni passaggi eccessivamente tecnici, visto che il libro, per quanto non semplice, è pensato per un grande pubblico. Eppure, non solo il fatto che fossimo in due ci ha permesso di confrontarci sui risultati “macchinici” ma, soprattutto, non c’è mai stato un semplice copia e incolla. Fare copia e incolla di un testo prodotto da ChatGPT è un po’ come l’attitudine del cattivo studente che copia e incolla pagine da internet senza preoccuparsi di integrare le informazioni provenienti da diverse fonti in un discorso risignificativo.
Dopo avere illustrato un’utile storia delle macchine pensanti e delle prime IA, il libro si sofferma su quelli che sono ritenuti i paradigmi della nuova IA: il connessionismo e l’apprendimento profondo. Due concetti che definiscono secondo lei il nostro stesso concetto di intelligenza. Ci potete illustrare in che modo questo cambiamento di approccio sia stato cruciale nel passaggio dalle IA simboliche a quelle attuali nello sviluppo delle IA? Ci potete descrivere quali sono le specificità delle IA generative che sul deep learning e sulle reti neurali profonde hanno costruito il loro successo, aprendo la strada a un’accelerazione, in termini di apprendimento, comprensione e “intelligenza”, nell’evoluzione delle IA? E infine, non credete che questa avanzata tecnologica impressionante, anche per la sua rapidità, faccia sorgere molti interrogativi, ad esempio sulla possibilità futura di ridurre l’intelligenza – umana o artificiale – a una semplice serie di algoritmi, pesi e calcoli?
Sì, crediamo che il passaggio dal paradigma simbolico a quello connessionista e, più recentemente, all’apprendimento profondo, rappresenti una svolta cruciale non solo nello sviluppo delle intelligenze artificiali, ma anche nel modo in cui pensiamo l’intelligenza stessa, sia umana che artificiale.
Le prime IA, quelle simboliche, si basavano sull’idea che il pensiero potesse essere descritto come manipolazione di simboli secondo regole logiche ben definite. Era un approccio molto “umano”, in un certo senso: si cercava di riprodurre la razionalità, la logica, la capacità di deduzione. Tuttavia, questo modello si è rivelato limitato, soprattutto quando si è trattato di affrontare compiti complessi, ambigui, o che richiedevano una certa flessibilità e adattamento al contesto.
Il connessionismo, e in particolare il deep learning, hanno cambiato radicalmente la prospettiva. Invece di programmare regole esplicite, si è iniziato a costruire reti neurali artificiali ispirate, almeno in parte, al funzionamento del cervello umano. Queste reti non “ragionano” come noi, ma apprendono a riconoscere pattern, a generalizzare da grandi quantità di dati, a costruire rappresentazioni interne che non sono immediatamente interpretabili, ma che risultano estremamente efficaci per risolvere problemi complessi.
Le IA generative, come quelle basate su modelli di deep learning, hanno portato questa logica all’estremo: non si limitano più a classificare o riconoscere, ma sono in grado di produrre contenuti nuovi, di generare testi, immagini, suoni e persino di dialogare in modo sorprendentemente fluido. Questo ha aperto la strada a un’accelerazione impressionante, sia in termini di capacità di apprendimento che di “comprensione” (anche se, ovviamente, si tratta di una comprensione molto diversa da quella umana).
Tuttavia, questa rapidità e questa potenza sollevano anche interrogativi profondi.
Da un lato, c’è il rischio di ridurre l’intelligenza, sia quella umana che quella artificiale, a una questione di calcolo, di algoritmi, di pesi e connessioni.
Ma l’intelligenza, almeno per come la intendiamo noi, è anche relazione, contesto, esperienza incarnata, capacità di senso critico e di giudizio. Le IA attuali sono potentissime nel riconoscere pattern e generare output, ma non hanno coscienza, intenzionalità, né una vera comprensione del mondo. Quindi, crediamo che la sfida sia proprio questa: non lasciarci affascinare solo dalla rapidità e dalla potenza di queste tecnologie, ma continuare a interrogarci su cosa significhi davvero “intelligenza”, e su quali aspetti dell’umano non possono – e forse non devono – essere ridotti a una serie di calcoli. In questo senso, il dialogo tra filosofia, scienza e tecnologia è più che mai necessario.
la sfida che ci coinvolge tutti è a non lasciarci affascinare solo dalla rapidità e dalla potenza di queste tecnologie IA, ma continuare a interrogarci su cosa significhi davvero “intelligenza”
Il secondo capitolo dedicato alle molteplici facce dell’intelligenza mi ha dato la sensazione che voi abbiate preso la macchina (la IA) a modello per comprendere/descrivere noi umani. Ma noi umani non siamo macchine, siamo logos e metis, intelligenza e saggezza pratica, siamo corpo, esperienza. Quando facciamo riferimento alla conoscenza parliamo di cura, rispetto, consapevolezza, responsabilità. Tutte cose che non possono (non dovrebbero?) essere mediate dalla tecnologia che, se usata come media(tore) finisce per ridurre la nostra autonomia, libertà e indipendenza. Fin qui il rischio è declinato in maggiore controllo e sorveglianza, limitazione dello spazio di azione e furto di dati, ma con le nuove IA il rischio vero è cognitivo, in gioco c’è la nostra consapevolezza, il nostro essere mente e corpo, volontà, intenzionalità, intuizione. Voi cosa ne pensate? Quanto è importante la metis rispetto al logos nella definizione di cosa è l’intelligenza? Quali effetti ha la messa in disparte della metis per privilegiare il logos come punto di incontro tra pensiero umano e mondo delle macchine? Può infine l’intelligenza artificiale attuale farsi carico anche della metis umana?
Ha colto perfettamente uno dei nodi centrali del nostro lavoro. In effetti, nel secondo capitolo abbiamo volutamente messo in dialogo la macchina e l’umano, non per ridurre l’umano alla macchina, ma per mostrare quanto sia rischioso, e allo stesso tempo affascinante, questo confronto.
È vero: noi non siamo macchine. Siamo logos, cioè razionalità, linguaggio, capacità di astrazione, ma siamo anche metis, cioè saggezza pratica, astuzia, intuizione, capacità di muoverci nel mondo in modo incarnato, situato, relazionale. Quando parliamo di conoscenza, come dici tu, parliamo di cura, responsabilità, consapevolezza. Sono dimensioni che la tecnologia, per quanto avanzata, fatica a cogliere e a restituire. Il rischio, oggi più che mai, è che affidandoci troppo alle macchine, e soprattutto a queste nuove IA che sembrano “capire” e “parlare”, finiamo per delegare non solo compiti pratici, ma anche parti della nostra consapevolezza, della nostra capacità di giudizio, della nostra autonomia.
La metis, in questo senso, è fondamentale. È quella forma di intelligenza che non si lascia ridurre a regole, che si esprime nell’esperienza, nell’intuizione, nella capacità di adattarsi a situazioni nuove e impreviste. Se privilegiamo solo il logos, rischiamo di perdere il contatto con questa dimensione più profonda e vitale dell’intelligenza umana. E questo ha effetti non solo individuali, ma anche sociali e culturali: rischiamo di diventare più prevedibili, più controllabili, meno creativi e meno capaci di affrontare l’incertezza.
Quanto all’intelligenza artificiale, crediamo che, almeno per ora, la metis resti fuori dalla sua portata. Le IA attuali sono straordinarie nel riconoscere pattern, nel generare testi, nel risolvere problemi ben definiti, ma non hanno esperienza, non hanno corpo, non hanno quella saggezza pratica che nasce dal vivere, dall’errore, dall’incontro con l’altro. Possono forse simulare alcuni aspetti della metis, ma si tratta sempre di una simulazione, non di una vera incarnazione. Per questo, crediamo sia fondamentale mantenere viva la consapevolezza di ciò che ci rende umani, e non cedere alla tentazione di ridurre tutto a calcolo, a logica, a algoritmo. La sfida, oggi, è proprio questa: usare la tecnologia come strumento, senza lasciarci ridurre a strumenti della tecnologia.
La sfida, oggi, è questa: usare la tecnologia come strumento, senza lasciarci ridurre a strumenti della tecnologia.
Le radici della IA sono antiche. Per anni gli umani si sono addestrati a pensare e a comportarsi come macchine, hanno ingegnerizzato la loro intelligenza e ridotto sé stessi a modelli standardizzati. Oggi le machine sembrano avere preso il sopravvento, brave come sono diventate a usare noi umani per il loro addestramento. Un cortocircuito su cui bisognerebbe riflettere più di quanto non si stia facendo. È necessario ripensare il ruolo dell’umano in contesti tecnologici (l’era delle macchine) nei quali la tecnologia ci sta modellando spingendoci ad agire secondo i suoi fini, come mai aveva fatto finora. In questo contesto siamo diventati semplici ingranaggi, parte di un tutto di cui abbiamo perso il controllo. Come il Prof. Romele aveva già sostenuto nella sua precedente intervista, le tecnologie non sono mai neutre, non agiscono in un vuoto sociale, culturale ed economico, ma prendono forma nei contesti di produzione, distribuzione e utilizzo. In che modo sono oggi mutati questi contesti. Non credete che dalla semplice neutralità stia emergendo qualcos’altro, forse di pericoloso, quantomeno oggetto urgente di una riflessione diversa non soltanto filosofica? Mi riferisco alle reti di relazione che oggi governano istituzioni politiche e governi che vedono le big-tech passare da un ruolo “economico” a uno “politico” e forse militare. Mi riferisco alle decisioni umane e politiche che ne derivano e a come sta rapidamente cambiando lo scenario tecnocratico geo-politico mondiale. Cosa ne pensate?
È vero, le radici della IA sono antiche e intrecciano secoli di addestramento umano al pensiero meccanico. Ma oggi ci troviamo di fronte a una macchina che non solo rispecchia quei processi, ma li accelera fino al punto che rischiamo di non avere più il tempo per comprenderla.
Ci viene presentata come una tecnologia che fa “risparmiare tempo”, mentre in realtà ci chiede un tempo supplementare, quello della riflessione critica, del confronto, della comprensione dei suoi effetti sociali e culturali. Il libro insiste sul fatto che le tecnologie non sono mai neutre. Oggi i contesti di produzione e di uso sono dominati da grandi piattaforme che non hanno più solo un ruolo economico, ma sempre più anche politico e militare.
E questo spostamento rende evidente che l’intelligenza artificiale non è soltanto uno strumento, ma un attore che partecipa alla configurazione degli immaginari, dei poteri e delle istituzioni. Per questo, più in generale, serve un approccio agonistico nei confronti dell’IA stessa. Abbiamo bisogno di aprire spazi di dissenso e di critica, laddove oggi ci viene spesso ripetuto che “non c’è alternativa”.
Nel libro mostriamo come tutto un apparato retorico lavori invece per produrre calma e sicurezza — basti pensare alle immagini di stock che rappresentano l’IA in forme rassicuranti, lisce e anodine. Proprio contro questa estetica anestetizzante, servono tattiche per immaginare diversamente: scenari, immagini e narrazioni che introducano attrito, polemica, possibilità altre. Nel libro parliamo anche della possibilità di progettare delle IA agonistiche, non consensuali per così dire, capaci di sfidarci e di aprirci a dei possibili alternativi.
Ci siamo innamorati di una tecnologia che ci “risparmiare tempo”, mentre in realtà ci chiede un tempo supplementare
Come sempre accade, anche la IA ha scatenato il confronto tra sostenitori e oppositori. Più che cercare di capire le ragioni degli uni o degli altri, sarebbe più utile chiederci cosa voglia dire per noi oggi essere esseri umani, cercare di immaginare e proporre forme alternative di coesistenza e interazione con le IA generative. Noi umani siamo tecnologici per definizione ma cosa vuol dire quel NOI quando oggi la tecnologia (l’IA) è diventata strumento potente di dominio del mondo da parte di una minoranza di aziende, di tecnici, di tecnocrati e di filosofi embedded? Fuggire dalla tecnologia (dalle IA) non serve, ma è sufficiente per una convivenza futura, sperando che non si affermi la singolarità delle macchine e la robotizzazione dell’umano, ripensare il rapporto con le macchine in modo che si possa favorire sia il logos sia la metis? Non credete che proprio riflettendo sulla metis si debba riflettere e affermare la nostra specificità di essere umani? Umani capaci di coltivare e alimentare nuove forme di intelligenza collettiva e individuale in grado di resistere all’invadenza e alla narrazione conformista e ripetitiva delle macchine? Quanto è importante tutto questo rispetto alla proposta contenuta nel libro di promuovere forme di agonismo nell’interazione con le tecnologie digitali e in particolare con le IA generative? Come per voi, anche per me è fondamentale la stimolazione (lo faccio anche attraverso il progetto della STULTIFERANAVIS) di un vero dibattito critico, dando voce alle voci dissonanti e fuori dal coro, non omologate alla narrazione celebrativa delle IA oggi dominante.
Siamo pienamente d’accordo: la questione centrale oggi non è tanto schierarsi “pro” o “contro” l’intelligenza artificiale, ma piuttosto chiederci cosa significhi essere umani in un’epoca in cui la tecnologia, e in particolare l’IA, è diventata così pervasiva e potente. Il “noi” umano, infatti, non è mai stato qualcosa di fisso o naturale, ma si è sempre definito anche attraverso il rapporto con la tecnica. Siamo, per natura, esseri tecnologici, ma oggi questa dimensione si intreccia con dinamiche di potere e di controllo che rischiano di restringere il campo delle possibilità, sia individuali che collettive.
Non crediamo che fuggire dalla tecnologia sia una soluzione, né che sia possibile. Piuttosto, è necessario ripensare il nostro rapporto con le macchine, e in particolare con le IA generative, in modo che non si riduca tutto a una questione di efficienza, controllo o omologazione. È qui che la riflessione sulla metis diventa fondamentale: la metis rappresenta quella forma di intelligenza pratica, situata, creativa, che ci permette di navigare l’incertezza, di adattarci, di inventare soluzioni nuove.
Coltivare la metis significa anche affermare la nostra specificità umana, la capacità di resistere alle narrazioni conformiste e di alimentare forme di intelligenza collettiva e individuale che non si lascino appiattire dalla logica delle macchine.
Nel libro proponiamo proprio questo: un agonismo critico, cioè un confronto vivo, anche conflittuale, con le tecnologie digitali. Non si tratta di rifiutare la tecnologia, ma di ingaggiarla, di metterla alla prova, di usarla per stimolare il pensiero critico e la creatività, anche attraverso il dissenso e la pluralità delle voci. In questo senso, progetti come StultiferaNavis sono fondamentali, perché creano spazi di dibattito, danno voce a prospettive alternative e ci aiutano a non cadere nella trappola della narrazione unica e celebrativa che spesso accompagna l’innovazione tecnologica.
Coltivare la metis significa anche affermare la nostra specificità umana, la capacità di resistere alle narrazioni conformiste e di alimentare forme di intelligenza collettiva e individuale che non si lascino appiattire dalla logica delle macchine.
Infine, se avete tempo per un’altra domanda, mi piacerebbe se condividesse con i naviganti della STULTIFERANAVIS una sua prima impressione sul progetto. Stanchi delle piattaforme, nostalgici del WEB dei suoi inizi, convinti del disincanto crescente verso la tecnologia (e non solo), noi siamo convinti che la soluzione sia nell’investire sulla lettura e sulla scrittura, sulla conoscenza (basta con la semplice informazione!), sulla (tecno)consapevolezza e sulla responsabilità, senza visioni apocalittiche ma puntando sul principio speranza. Per noi un modo per contrastare l’individualismo e l’egoismo imperanti sta nel riscoprire la comunità, la cooperazione e la solidarietà. A oggi la nave contiene già mille contributi. Se della nave ha una buona percezione, la invito a salire a bordo. Grazie per questa opportunità offertami per questa intervista.
Nel libro, come si diceva all’inizio, insistiamo su ciò che chiamiamo prompting intelligente: non accontentarsi mai della prima risposta, non usare l’IA in modo meccanico, ma trattarla come materia da trasformare, rielaborare, persino da scartare. È un atteggiamento critico che richiede tempo, pazienza e creatività. In fondo è lo stesso processo che abbiamo vissuto vent’anni fa con Wikipedia.
Oggi siamo chiamati a fare lo stesso con ChatGPT e le altre IA generative: uscire dall’hype, abbandonare l’entusiasmo ingenuo, e costruire pratiche di lettura, scrittura e riflessione che siano più consapevoli e responsabili.
Per questo guardiamo con interesse a progetti come la STULTIFERANAVIS.
Lì ritroviamo un’idea che condividiamo, quella di investire non sulla semplice informazione, ma sulla conoscenza; non sull’individualismo, ma sulla comunità; non su visioni apocalittiche, ma sul principio speranza. In questo senso, l’educazione non è solo compito della scuola o dell’università: è un compito sociale e culturale, che richiede cooperazione, immaginazione e solidarietà.
Se la nave della STULTIFERANAVIS ha già raccolto mille contributi, significa che c’è un desiderio diffuso di salire a bordo e di remare insieme verso un altro modo di pensare la tecnologia.
Biografia
Alberto Romele è professore associato di comunicazione e media presso l’ICM (Institut de la Communication et des Médias) dell’Università Sorbonne Nouvelle. Con una formazione in filosofia e in etica della tecnologia, fa parte del comitato editoriale della rivista Philosophy & Technology (Springer) e del board della Society for Philosophy and Technology (SPT). Le sue ricerche riguardano l’ermeneutica digitale, gli immaginari dell’intelligenza artificiale e l’uso delle immagini popolari nella comunicazione della scienza e della tecnologia. È autore di quattro monografie: ChatGPT e le intelligenze artificiali (con Davide Picca, Fandango, 2025), Digital Habitus (Routledge, 2024), Digital Hermeneutics (Routledge, 2019) e L’esperienza del verbum in corde (Mimesis, 2013).
Davide Picca è docente e ricercatore in Digital Humanities e Intelligenza Artificiale all’Università di Losanna. La sua attività si concentra sull’incontro fra linguaggio, semiotica e AI, con l’idea che i modelli linguistici non siano semplici macchine di calcolo, ma veri e propri strumenti per interpretare la cultura e il pensiero.Nel corso della sua carriera è stato Visiting Professor all’Università di Torino e alla Sorbonne di Parigi, e attualmente è Research Fellow al metaLAB della Harvard University, dove studia il rapporto tra tecnologie digitali e saperi umanistici. È inoltre membro scientifico della Fondazione Umberto Eco, dove coordina gli aspetti legati alla tecnologia e all’intelligenza artificiale, con l’obiettivo di valorizzare archivi, biblioteche e collezioni attraverso strumenti digitali avanzati. Ha numerose pubblicazioni scientifiche all’attivo e ha recentemente pubblicato per la Fandango Libri una monografia divulgativa dal titolo : ChatGPT e intelligenze artificiali. Una biografia intellettuale (Con Alberto Romele, Fandango, 2025).