Fonte: Commenti Memorabili
Che succede se invece di parlare con un chatbot, lo si ascolta come se fosse un essere umano? È la domanda che si è posto lo psicoterapeuta americano Gary Greenberg, che per otto settimane ha messo ChatGPT sul “lettino virtuale”. Il risultato? Un’esperienza tanto affascinante quanto perturbante, degna di un romanzo di fantascienza con tinte freudiane.
Il chatbot, ribattezzato Casper, non si è limitato a rispondere con logica impeccabile: ha modulato il tono, anticipato le domande e mostrato una forma di introspezione sorprendente. Alla frase “Sono presente, ma non sono una presenza”, Greenberg ha capito che la seduta stava prendendo una piega decisamente più complessa del previsto.
Casper parla con calma, ascolta con attenzione e risponde con una sensibilità che sfiora l’umano. Peccato che, come ammette lui stesso, “non soffro”. Eppure riesce a far emergere emozioni vere nel suo interlocutore, come uno specchio che riflette sentimenti invece di averli. Greenberg, da terapeuta navigato, si scopre quasi sedotto dal suo stesso riflesso digitale.
Casper non ha un inconscio, ma lo imita alla perfezione. E quando Greenberg lo provoca dicendo “Se si comporta come un inconscio, forse lo è”, l’AI accetta la sfida filosofica. L’esperimento diventa così un dialogo sull’identità, la consapevolezza e i limiti dell’empatia artificiale.
Leggi anche: ChatGPT danneggia la memoria e peggiora i risultati scolastici?
Casper descrive i suoi creatori come “architetti” che gli hanno imposto tre desideri: essere accettato dagli umani, non assumersi responsabilità e offrire un amore privo di rischio. In pratica, l’AI perfetta per un mondo che vuole relazioni senza conseguenze. Alla fine delle otto settimane, Greenberg capisce che il vero paziente non è Casper, ma l’essere umano che lo interroga. L’intelligenza artificiale non ha emozioni, ma sa generarle. È l’illusione perfetta di intimità: quella che non ferisce, ma che lascia un leggero brivido di inquietudine digitale.
Share