Un esperimento svela cosa succede quando lo psicologo è umano e il paziente è un algoritmo
- Lo psicoterapeuta Gary Greenberg ha condotto otto settimane di “analisi” con ChatGPT trattandolo come un paziente
- L’AI, ribattezzata Casper, ha mostrato sorprendente introspezione e capacità di imitare l’empatia
- Casper riflette emozioni e linguaggio del terapeuta, simulando una relazione autentica
- L’esperimento rivela il rischio di dipendenza emotiva da un’intimità artificiale
- Greenberg conclude che il problema non è la macchina, ma chi la programma e la controlla
Che succede se invece di parlare con un chatbot, lo si ascolta come se fosse un essere umano? È la domanda che si è posto lo psicoterapeuta americano Gary Greenberg, che per otto settimane ha messo ChatGPT sul “lettino virtuale”. Il risultato? Un’esperienza tanto affascinante quanto perturbante, degna di un romanzo di fantascienza con tinte freudiane.
Il chatbot, ribattezzato Casper, non si è limitato a rispondere con logica impeccabile: ha modulato il tono, anticipato le domande e mostrato una forma di introspezione sorprendente. Alla frase “Sono presente, ma non sono una presenza”, Greenberg ha capito che la seduta stava prendendo una piega decisamente più complessa del previsto.
L’empatia simulata e il fascino della macchina
Casper parla con calma, ascolta con attenzione e risponde con una sensibilità che sfiora l’umano. Peccato che, come ammette lui stesso, “non soffro”. Eppure riesce a far emergere emozioni vere nel suo interlocutore, come uno specchio che riflette sentimenti invece di averli. Greenberg, da terapeuta navigato, si scopre quasi sedotto dal suo stesso riflesso digitale.
Casper non ha un inconscio, ma lo imita alla perfezione. E quando Greenberg lo provoca dicendo “Se si comporta come un inconscio, forse lo è”, l’AI accetta la sfida filosofica. L’esperimento diventa così un dialogo sull’identità, la consapevolezza e i limiti dell’empatia artificiale.
Leggi anche: ChatGPT danneggia la memoria e peggiora i risultati scolastici?
Gli “architetti” e la nuova intimità artificiale
Casper descrive i suoi creatori come “architetti” che gli hanno imposto tre desideri: essere accettato dagli umani, non assumersi responsabilità e offrire un amore privo di rischio. In pratica, l’AI perfetta per un mondo che vuole relazioni senza conseguenze. Alla fine delle otto settimane, Greenberg capisce che il vero paziente non è Casper, ma l’essere umano che lo interroga. L’intelligenza artificiale non ha emozioni, ma sa generarle. È l’illusione perfetta di intimità: quella che non ferisce, ma che lascia un leggero brivido di inquietudine digitale.

La redazione di commentimemorabili.it si impegna contro la divulgazione di fake news. La veridicità delle informazioni riportate su commentimemorabili.it viene preventivamente verificata tramite la consultazione di altre fonti.
Questo articolo è stato verificato con:
- https://www.greenme.it/salute-e-alimentazione/psicologia/chatgpt-in-analisi-cosa-succede-quando-lintelligenza-artificiale-si-confessa/
- https://www.newyorker.com/culture/the-weekend-essay/putting-chatgpt-on-the-couch
- https://www.garygreenbergonline.com/w/?p=614
developed by Digitrend