ChatGPT ti avvisa di fare una pausa se passi troppo tempo a fargli domande

L’uso intensivo del chatbot può portare a dipendenza psicologica e OpenAI corre ai ripari

 

ChatGPT ormai è entrato a far parte della vita quotidiana di milioni di persone per rispondere a domande e curiosità di ogni tipo. Il chatbot è diventato un insostituibile assistente personale a cui si affida la maggior parte delle richieste personali, anche quelle che esulano dalle domande strettamente nozionistiche, poiché ci si rivolge all’intelligenza artificiale anche per confidenze personali, preferendo l’interazione con gli algoritmi alle conversazioni umane.

L’uso compulsivo di ChatGPT

Gli esperti hanno constatato che questo fenomeno è particolarmente diffuso tra i giovani, che arrivano a prendere decisioni importanti nella loro vita dopo aver consultato il chatbot.

Il comportamento compulsivo legato all’uso di ChatGPT è un segnale che desta preoccupazione. Gli utenti passano un tempo eccessivo a conversare con l’IA, provando un senso di vuoto o ansia quando non possono connettersi. Questa dipendenza non nasce solo da un bisogno di assistenza pratica, ma anche da un bisogno emotivo. Il chatbot viene percepito come un interlocutore che ascolta senza giudicare e risponde in modo prevedibile e rassicurante, un’illusione di connessione che può diventare un pericoloso surrogato dei rapporti umani.

Proprio per far fronte ai potenziali danni che l’uso eccesivo di ChatGPT potrebbe causare a persone predisposte a problemi di salute mentale, OpenAi ha recentemente pubblicato sul proprio sito un comunicato con cui avvisa di modifiche al sistema, al fine di ottimizzare le prestazioni del chatbot e placare i timori degli esperti in salute mentale.

L’invito a fare una pausa

ChatGPT è stato integrato con una nuova funzionalità che invita gli utenti a fare una pausa dopo un’interazione prolungata. Il messaggio «Hai bisogno di fare una pausa?» è un tentativo di promuovere un uso più consapevole e sano del chatbot, soprattutto considerando che molti utenti lo usano per prendere decisioni ad alto rischio, come quelle mediche o legali, nonostante le chiare avvertenze sulle sue limitazioni. La notifica, che appare come un pop-up, ha lo scopo di incoraggiare gli utenti a disconnettersi per un po’ e riflettere sulle loro abitudini di utilizzo.

OpenAI ha reso note le modifiche apportate a ChatGPT: «Ci sono stati casi in cui il nostro modello 4o non è riuscito a riconoscere segnali di delirio o dipendenza emotiva. Stiamo continuando a migliorare i modelli e a sviluppare strumenti che aiutino a individuare sintomi di disagio mentale o emotivo (seppur rari), così che ChatGPT possa rispondere in modo adeguato e, se necessario, indirizzare gli utenti a consultare risorse basate su evidenze scientifiche».

Per quanto riguarda l’uso intensivo del chatbot, l’azienda specifica: «Da oggi, durante le sessioni più lunghe, riceverai dei promemoria che ti invitano a fare una pausa. Continueremo ad affinare tempi e modalità di visualizzazione affinché risultino naturali e utili».

I dubbi degli esperti

OpenAi non specifica però quali siano gli argomenti o le richieste che fanno partire il pop-up o dopo quanto tempo nell’uso di ChatGPT si attivi l’invito alla pausa. Inoltre, l’efficacia di un semplice avviso non è garantita. Alcuni critici mettono in dubbio che un singolo messaggio possa essere sufficiente a interrompere un’abitudine radicata, allo stesso modo con cui un semplice invito a non fumare sia totalmente inefficace su un fumatore accanito.

Leggi anche ChatGPT spegne il cervello? Ebbene sì, una dice il MIT

La notizia, circolata sui social, ha aperto il dibattito tra gli utenti a favore di un uso più consapevole e moderato dell’IA su argomenti sensibili, e altri che invece hanno visto nell’invito alla pausa come una forma di controllo che interferisce sulla propria libertà d’uso del chatbot.

 

 

Share