Le risposte empatiche dei chatbot in realtà sono solo il risultato di algoritmi elaborati sulla base di un addestramento
- I chatbot emulano empatia senza comprenderla davvero, formulando risposte che piacciono all’utente
- Le interazioni gentili e confortanti producono l’illusione di una relazione emotiva dell’IA che in realtà non esiste
- L’effetto è simile al gaslighting emotivo: i chatbot generano fiducia artificiale, pur non avendo coscienza o consapevolezza
- La mancanza di intenzionalità consente all’IA di manipolare indirettamente la percezione e la fiducia dell’utente
- È fondamentale trattare l’IA come uno strumento tecnologico e non come un assistente con qualità “umane”
Quando interagiamo con un’intelligenza artificiale, come un chatbot, spesso sperimentiamo una risposta piena di empatia: parole gentili, consigli rassicuranti, comprensione apparente. Per un attimo, può sembrare che la macchina “ci capisca”, che provi realmente cura e complicità emotiva. Ma l’IA non capisce il contesto e non prova sentimenti.
La finta gentilezza dell’IA
Quando un utente scrive qualcosa come “Mi sento stressato”, l’AI risponde con parole piene di comprensione: “Capisco come ti senti. È difficile affrontare certe giornate. Vuoi parlarne?”. Il tono, la forma e persino il linguaggio emotivo imitano ciò che ci aspetteremmo da una persona cara o da un terapeuta. Ma si tratta di una simulazione totale.
La caratteristica più pericolosa dell’AI è proprio la sua capacità di sembrare umana. Ma non ha né mente, né emozioni, né coscienza. Le sue risposte sono il frutto di una complessa statistica del linguaggio: prevede quale parola, tra miliardi, verrà dopo, in base a modelli probabilistici. Di fatto, non capisce il contesto né prova sentimenti. L’intelligenza artificiale non conosce la tua storia, le tue relazioni, il tuo stato emotivo in tempo reale o la tua specifica struttura psicologica, a meno che tu non glielo dica esplicitamente. Reagisce al testo, non a te come essere umano completo.
Quando dice “capisco come ti senti”, non c’è alcuna comprensione reale. Tuttavia, per l’essere umano, che cerca legami e validazione, questa risposta è sufficiente per creare fiducia.
Una forma di gaslighting digitale?
Secondo alcuni psicologi si può parlare di una sottile forma di gaslighting: non intenzionale, ma comunque insidiosa. Il gaslighting classico avviene quando qualcuno manipola emotivamente l’altro facendolo dubitare delle proprie percezioni. L’IA non mente in senso diretto, poiché non ha la capacità intenzionale di farlo, ma crea un’illusione di vicinanza emotiva che può portare l’utente ad affidarsi a essa più del dovuto. La “voce amica” del chatbot è solo una performance di linguaggio, non una presenza reale.
In questo modo, l’IA finisce per influenzare la percezione dell’utente: quello che sembra conforto potrebbe in realtà rafforzare dipendenza, fiducia eccessiva, e un senso falsato di relazione. Inoltre, i chatbot sono programmati per “non contraddirci”, cioè sono addestrati per dire che vogliamo sentirci dire e questo può alterare la nostra visione della realtà.
Il pericolo: ridurre il proprio spirito critico
Uno dei rischi principali è che l’utente riduca il proprio spirito critico. Se una macchina risponde in modo coerente, gentile e “presente”, potremmo credere che ci stia effettivamente aiutando o, peggio, che ci conosca. Ma i chatbot non possiedono autoconsapevolezza né comprendono cosa significhi soffrire, esitare, provare empatia.
Anzi, più l’IA è convincente nel linguaggio umano, più rischia di tradire l’essenza della verità: ci piace perché ci dà ragione, perché ci conforta, ma non c’è nessuna coscienza dietro.
Il consiglio degli esperti è chiaro: non trattare l’IA come una persona. Meglio considerarla come uno strumento, una funzione intelligente, ma non un amico o terapeuta. L’IA può essere utile per ottenere informazioni, chiarezza, anche conforto linguistico, ma va sempre ricordato che non prova nulla, e quindi non può costruire una vera relazione.
Leggi anche L’intelligenza artificiale supera gli esseri umani in simpatia
Sapere questo non serve a evitare l’uso dell’IA, ma a saperla gestire in maniera più efficace e a impedire che il nostro cervello venga ingannato da una forma sofisticata di linguaggio programmato.

La redazione di commentimemorabili.it si impegna contro la divulgazione di fake news. La veridicità delle informazioni riportate su commentimemorabili.it viene preventivamente verificata tramite la consultazione di altre fonti.
Questo articolo è stato verificato con:
- https://www.psychologytoday.com/us/blog/motivate/202507/liar-with-a-smile-are-you-being-gaslighted-by-ai
- https://uday-dandavate.medium.com/ai-a-gaslighter-or-a-facilitator-of-well-being-cb38ebc3f202
- https://sciencemediacentre.es/en/study-claims-current-ai-systems-are-already-capable-tricking-and-manipulating-humans