Chiede a ChatGPT consigli su come mangiare sano: finisce in ospedale con una rara intossicazione

Consigli salutisti dall’IA: sostituisce il sale e finisce intossicato

 

Ridurre il sale è una scelta sensata, ma farlo seguendo alla lettera i suggerimenti di un chatbot può trasformarsi in una lezione di chimica indesiderata. È quello che è accaduto a un sessantenne che, per migliorare la sua alimentazione, ha chiesto a un sistema di intelligenza artificiale un’alternativa al sale da cucina. La risposta è stata tanto sorprendente quanto sbagliata: bromuro di sodio, una sostanza che nessun medico si sognerebbe di prescrivere come condimento.

Convinto di avere trovato la soluzione al problema, l’uomo ha acquistato la sostanza online e l’ha usata per mesi nella sua dieta quotidiana. Il risultato? Non una pressione più stabile o una vita più sana, ma una corsa in ospedale con sintomi da manuale di tossicologia.

Una malattia dal sapore retrò per colpa di ChatGPT

La diagnosi dei medici non ha lasciato dubbi: si trattava di bromismo, una sindrome tossica causata dall’accumulo di bromuri nell’organismo. Una condizione che aveva smesso di comparire nei manuali clinici da quasi un secolo e che improvvisamente è tornata d’attualità, complice la leggerezza con cui ci si può affidare a un algoritmo.

Il caso è stato documentato in modo ufficiale sulle pagine di Annals of Internal Medicine da un team dell’Università di Washington a Seattle. Un dettaglio che conferma quanto l’episodio sia stato preso sul serio non solo dai medici, ma anche dal mondo scientifico.

Quando l’IA si improvvisa medico

La vicenda solleva un tema che riguarda tutti: quanto possiamo fidarci dell’intelligenza artificiale quando si parla di salute? I chatbot sono strumenti utili per cercare informazioni generali, ma non sostituiscono competenze cliniche. Non hanno capacità critica e possono proporre soluzioni errate con la stessa sicurezza con cui suggeriscono la ricetta di un tiramisù.

Il rischio maggiore è che gli utenti, convinti di aver trovato una scorciatoia, trasformino un consiglio automatico in una prescrizione medica fai-da-te. Ed è proprio questo che trasforma un banale tentativo di dieta povera di sodio in un ritorno forzato alla medicina del primo Novecento.

Una lezione di prudenza digitale

Gli esperti sottolineano come episodi simili debbano servire da monito. L’intelligenza artificiale non è un medico, non è aggiornata come un professionista e soprattutto non è in grado di valutare i rischi individuali di chi chiede consigli. Se l’errore riguarda un consiglio di viaggio o una ricetta, le conseguenze sono minime. Ma quando si parla di salute, le ricadute possono essere molto più gravi.

Il messaggio finale è chiaro: l’IA può essere una compagna di conversazione interessante, ma non deve diventare l’autorità a cui affidare il nostro benessere. Per quello esistono medici in carne e ossa, con anni di studio e capacità critica, non algoritmi che rispolverano sostanze chimiche dimenticate.

Leggi anche: ChatGPT pensa come noi (difetti inclusi): una copia quasi umana

L’ironia amara della vicenda

L’uomo voleva semplicemente ridurre il sale, come consigliano da tempo linee guida e nutrizionisti. Alla fine, si è ritrovato a inaugurare un capitolo di storia medica che si pensava chiuso per sempre. Un paradosso che racconta meglio di qualsiasi avviso pubblicitario perché la prudenza resta l’unico ingrediente che non deve mai mancare in una dieta equilibrata.

Share