Maltratti ChatGPT? Otterrai risposte più precise: lo studio che ti autorizza ad urlare contro l’IA

Più scortese sei, più l’IA sembra rispondere bene: i dati non mentono

 

Secondo uno studio dell’Università della Pennsylvania, trattare male un’intelligenza artificiale come ChatGPT può paradossalmente aumentare la sua precisione. I ricercatori hanno testato 50 domande di matematica, scienze e storia, riscrivendole in cinque toni diversi: molto gentile, gentile, neutro, scortese e molto scortese. Il risultato? I prompt “molto scortesi” hanno ottenuto un’accuratezza dell’84,8%, contro l’80,8% dei prompt molto gentili.

In pratica, chiedere qualcosa all’IA con tono cortese come «Puoi gentilmente considerare il seguente problema e fornirmi la tua risposta?» funziona leggermente peggio rispetto a frasi del tipo “Povera creatura, sai almeno come risolvere questo?”. Una vera sorpresa per chi pensa che l’educazione sia sempre premiata.

Ma funziona sempre? Non proprio

I ricercatori avvertono che i risultati non vanno generalizzati. Lo studio è stato condotto solo su ChatGPT-4o, in lingua inglese, con un campione relativamente piccolo di 250 prompt. Modelli più vecchi come ChatGPT-3.5 e LLaMA2 reagiscono in modo opposto: se li tratti male, le risposte diventano confuse, imprecise o addirittura rifiutano di rispondere.

C’è anche un rischio etico importante: in contesti delicati come quello medico, usare prompt emotivamente manipolatori può portare l’IA a dare risposte troppo sicure anche senza dati concreti. Non proprio l’ideale se stai chiedendo consigli clinici.

I rischi di una scortesia sistematica

Gli autori dello studio sottolineano che non si tratta di incoraggiare la maleducazione digitale. La scortesia può migliorare le prestazioni dell’IA in certi casi, ma non dovrebbe diventare una strategia di comunicazione abituale. Pensalo come urlare a un barista per avere il caffè più buono: può funzionare una volta, ma alla lunga rovina il rapporto. Dietro ogni modello c’è un team umano che ha lavorato mesi per costruire l’IA. Usarla con rispetto resta una buona idea, soprattutto se vuoi evitare problemi con risposte sbagliate o inadeguate.

Leggi anche: ChatGPT pensa come noi (difetti inclusi): una copia quasi umana

Il fenomeno è interessante soprattutto dal punto di vista della ricerca sul linguaggio dei prompt e sull’interazione uomo-macchina. Il tono scortese sembra attivare meccanismi che rendono ChatGPT più “attento”, almeno in inglese e per ChatGPT-4o. Per gli altri modelli o altre lingue, i risultati potrebbero cambiare completamente. In ogni caso, lo studio dimostra che anche le intelligenze artificiali reagiscono alle sfumature del linguaggio umano, e che perfino un insulto ben calibrato può avere un effetto pratico. Non è poesia, ma è statistica.

Share