Go down

Cortesia, comportamento e intelligenza artificiale nel tessuto sociale


Nel dibattito contemporaneo sull’intelligenza artificiale, l’assenza di coscienza ed empatia viene spesso indicata come il limite fondamentale che separa le macchine dagli esseri umani.

Poiché i sistemi artificiali non provano emozioni autentiche né possiedono un’esperienza soggettiva del mondo, siamo portati a concludere che non possano essere empatici e, di conseguenza, non possano occupare un ruolo pienamente legittimo nelle interazioni sociali.

Questa osservazione – corretta – poggia, tuttavia, su un presupposto raramente messo in discussione, ovvero l’idea che l’empatia umana coincida necessariamente con un coinvolgimento emotivo autentico. Se questo presupposto viene messo in crisi, anche la linea di confine tra umano e artificiale deve essere ripensata.

L’idea è allora quella di proporre una rilettura dell’empatia come pratica sociale e competenza comportamentale, introducendo il concetto di Empathy-by-Politeness. In questa prospettiva, l’empatia non è primariamente ed esclusivamente ciò che si prova, ma ciò che si fa all’interno di una relazione regolata da norme, aspettative e convenzioni condivise.

Empatia come pratica sociale

L’empatia è comunemente descritta come la capacità di sentire ciò che l’altro sente. Questa definizione, intuitiva e moralmente attraente, riflette bene le relazioni intime e affettivamente significative, ma si rivela insufficiente a descrivere il funzionamento reale della maggior parte delle interazioni sociali quotidiane.

Nella vita ordinaria, infatti, gran parte dei comportamenti riconosciuti come empatici non derivano da una risonanza emotiva autentica, ma dall’adesione a regole sociali apprese e frasi come “mi dispiace”, “capisco come ti senti”, “deve essere difficile” non sono necessariamente espressione di un vissuto emotivo profondo, ma segnali convenzionali di partecipazione, il cui valore non dipende dalla sincerità dell’emozione provata, bensì dalla loro adeguatezza al contesto.

Questo non rende tali comportamenti falsi o ingannevoli. Al contrario, essi costituiscono una componente strutturale della convivenza sociale e senza questa forma di regolazione emotiva, le interazioni collettive oscillerebbero tra l’eccesso di coinvolgimento e il completo distacco.

Per descrivere questa dimensione, è utile allora distinguere tra emozione vissuta, interna e soggettiva; comprensione cognitiva dello stato altrui; espressione socialmente appropriata di tale comprensione. Tra queste, solo il primo livello richiede un coinvolgimento emotivo autentico, mentre il terzo, invece, opera interamente sul piano del comportamento osservabile e, poiché la società non ha accesso agli stati mentali interni, è proprio su questo piano esterno che l’empatia viene riconosciuta, valutata e sanzionata.

Con questa differenziazione, l’Empathy-by-Politeness non rappresenta allora un’eccezione o una degenerazione moderna, ma la modalità attraverso cui operano la maggior parte delle relazioni professionali, istituzionali e civili – un medico che comunica una diagnosi con tatto, un operatore di assistenza clienti che esprime dispiacere, un insegnante che rassicura uno studente – sono relazioni nelle quali ciò che conta non è provare interiormente, ma saper agire emotivamente.

L’errore prospettico più comune consiste infatti nel ritenere che l’empatia autentica sia la norma e quella regolata l’eccezione, quando in realtà accade spesso l’opposto, perché la vita sociale si regge su una grammatica di comportamenti emotivamente appropriati e non sull’accesso ai vissuti interiori.

In questo senso, l’empatia è un fenomeno pubblico, non privato, e appartiene allo spazio dell’interazione e non a quello dell’introspezione.

L’empatia come comportamento, non come esperienza

Una volta chiarita questa distinzione, diventa possibile spostare il criterio di valutazione dell’empatia, considerando che l’empatia che funziona socialmente non è quella autentica, ma quella efficace.

Dire che una persona è stata empatica significa che ha risposto nel modo giusto, al momento giusto, con il tono giusto e non implica – né potrebbe implicare – alcuna verifica del suo stato emotivo interno.

Questa visione non svaluta l’esperienza emotiva autentica, ma ne delimita il ruolo. L’autenticità resta centrale nelle relazioni intime, ma perde però rilevanza man mano che ci si sposta verso contesti regolati e impersonali, dove ciò che viene richiesto non è di provare, ma di mostrare.

L’empatia, così intesa, non è una virtù interiore da possedere, ma una pratica da esercitare, è un comportamento appreso, reiterabile, valutabile e, proprio per questo, può essere analizzato in termini funzionali.

Le macchine e la cortesia emotiva

Se l’empatia socialmente rilevante opera prevalentemente come comportamento osservabile, allora la critica rivolta all’intelligenza artificiale deve essere necessariamente riformulata, rinunciando a chiederci se le macchine provino empatia, per interrogarci invece se siano in grado di esibirla correttamente.

Se da un lato dobbiamo prendere atto che, almeno per il momento, i sistemi di intelligenza artificiale non possiedono coscienza né vissuti emotivi, dobbiamo anche assumere che possono riconoscere segnali, selezionare risposte appropriate, modulare linguaggio e tono in base al contesto. Possono, in sostanza, produrre atti empatici senza esperire stati empatici.

Questo non rappresenta una rottura rispetto all’interazione umana, ma rende esplicito il fatto che anche gli esseri umani agiscono spesso in modo empatico senza provare empatia autentica.

È importante notare, comunque, che il parallelismo qui non riguarda l’esperienza interiore, ma la funzione sociale, riconoscendo che un’intelligenza artificiale che manifesta cortesia emotiva non fa qualcosa di ontologicamente diverso da ciò che fa un essere umano quando applica regole di comportamento emotivo apprese.

La differenza resta reale, ma non necessariamente socialmente rilevante.

Non umanizzare la macchina, ma umanizzare la critica

Uno dei rischi nel dibattito sull’empatia artificiale non è tanto l’antropomorfizzazione delle macchine, quanto l’idealizzazione dell’umano e pretendere che l’empatia sia sempre autentica significa descrivere un essere umano che raramente esiste nel mondo reale.

Riformulare la questione in termini di Empathy-by-Politeness non riduce l’umano a una macchina, ma ne riconosce la stratificazione del suo comportamento reale. La vita sociale funziona grazie a una vasta area di interazioni regolate, impersonali e spesso emotivamente distaccate, senza che ciò ne comprometta il valore.

In questo spazio funzionale, l’intelligenza artificiale non entra come sostituto dell’umano, ma come occupante legittimo di un ruolo già esistente.

Conclusione

L’intelligenza artificiale non è empatica come un nostro amico, non prova emozioni, non condivide vissuti e non partecipa soggettivamente alla nostra esperienza del mondo.

Questa distanza, reale e probabilmente incolmabile, coglie però solo una parte della questione, perché gran parte della vita sociale non si fonda sulla trasparenza emotiva, bensì sulla correttezza dei comportamenti.

In questo senso, l’empatia che tiene insieme il tessuto sociale è spesso una forma di cortesia emotiva, una competenza pratica più che un’esperienza interiore.

Riconoscere questo fatto non svaluta l’empatia autentica, ma la restituisce al suo spazio proprio e, allo stesso tempo, consente di valutare l’intelligenza artificiale non in base a ciò che le manca, ma in base al ruolo che può svolgere.

Forse il contributo più rilevante delle macchine non è quello di simulare emozioni, ma di costringerci a guardare con maggiore onestà a ciò che, più spesso di quanto amiamo ammettere, già facciamo.


Pubblicato il 04 febbraio 2026