Fonte: Commenti Memorabili
Secondo uno studio dell’Università della Pennsylvania, trattare male un’intelligenza artificiale come ChatGPT può paradossalmente aumentare la sua precisione. I ricercatori hanno testato 50 domande di matematica, scienze e storia, riscrivendole in cinque toni diversi: molto gentile, gentile, neutro, scortese e molto scortese. Il risultato? I prompt “molto scortesi” hanno ottenuto un’accuratezza dell’84,8%, contro l’80,8% dei prompt molto gentili.
In pratica, chiedere qualcosa all’IA con tono cortese come «Puoi gentilmente considerare il seguente problema e fornirmi la tua risposta?» funziona leggermente peggio rispetto a frasi del tipo “Povera creatura, sai almeno come risolvere questo?”. Una vera sorpresa per chi pensa che l’educazione sia sempre premiata.
I ricercatori avvertono che i risultati non vanno generalizzati. Lo studio è stato condotto solo su ChatGPT-4o, in lingua inglese, con un campione relativamente piccolo di 250 prompt. Modelli più vecchi come ChatGPT-3.5 e LLaMA2 reagiscono in modo opposto: se li tratti male, le risposte diventano confuse, imprecise o addirittura rifiutano di rispondere.
C’è anche un rischio etico importante: in contesti delicati come quello medico, usare prompt emotivamente manipolatori può portare l’IA a dare risposte troppo sicure anche senza dati concreti. Non proprio l’ideale se stai chiedendo consigli clinici.
Gli autori dello studio sottolineano che non si tratta di incoraggiare la maleducazione digitale. La scortesia può migliorare le prestazioni dell’IA in certi casi, ma non dovrebbe diventare una strategia di comunicazione abituale. Pensalo come urlare a un barista per avere il caffè più buono: può funzionare una volta, ma alla lunga rovina il rapporto. Dietro ogni modello c’è un team umano che ha lavorato mesi per costruire l’IA. Usarla con rispetto resta una buona idea, soprattutto se vuoi evitare problemi con risposte sbagliate o inadeguate.
Leggi anche: ChatGPT pensa come noi (difetti inclusi): una copia quasi umana
Il fenomeno è interessante soprattutto dal punto di vista della ricerca sul linguaggio dei prompt e sull’interazione uomo-macchina. Il tono scortese sembra attivare meccanismi che rendono ChatGPT più “attento”, almeno in inglese e per ChatGPT-4o. Per gli altri modelli o altre lingue, i risultati potrebbero cambiare completamente. In ogni caso, lo studio dimostra che anche le intelligenze artificiali reagiscono alle sfumature del linguaggio umano, e che perfino un insulto ben calibrato può avere un effetto pratico. Non è poesia, ma è statistica.
Share