Fonte: Pexels
Chi sperava che l’intelligenza artificiale rappresentasse un faro di razionalità in un mare di decisioni umane sbagliate, dovrà ricredersi. Un nuovo studio ha mostrato che anche ChatGPT, il celebre modello linguistico sviluppato da OpenAI, non è immune da quegli affascinanti errori del cervello umano noti come bias cognitivi. Insomma, se sbagliare è umano… adesso è anche algoritmico.
Lo studio, pubblicato sulla rivista Manufacturing & Service Operations Management, ha messo ChatGPT alla prova con 18 test pensati appositamente per individuare deviazioni del pensiero logico. Il risultato? Il modello ha inciampato in quasi la metà dei casi. Più precisamente, ha mostrato una certa affinità con errori noti come l’overconfidence, l’avversione all’ambiguità e il classico bias di conferma. Niente panico: almeno non ha ancora iniziato a dare consigli astrologici.
Tra i bias cognitivi preferiti dall’intelligenza artificiale, l’overconfidence si piazza tra i più ricorrenti. Il modello sembra molto sicuro delle sue risposte, anche quando la logica e i dati suggerirebbero di darsi una calmata. Poi c’è la fallacia del giocatore, per cui ChatGPT ragiona come se la sorte avesse una memoria, e il bias di conferma, cioè quella tendenza a cercare solo le informazioni che danno ragione… a se stessi (o al prompt iniziale).
Curiosamente, il modello si dimostra più solido in situazioni dove noi esseri umani tendiamo a cadere come birilli, come la fallacia del costo irrecuperabile. Ma appena l’IA deve “giudicare” qualcosa di soggettivo, inizia a mostrare segni preoccupanti di umanità.
Lo studio ha evidenziato che GPT-4, rispetto al suo predecessore GPT-3.5, è più accurato nei compiti che richiedono analisi logica e matematica. Ma c’è un rovescio della medaglia: proprio GPT-4 sembra essere ancora più esposto ai bias nei casi in cui serve giudizio soggettivo. Come dire: è migliorato nel fare i conti, ma peggiorato nel prendere decisioni complesse che richiedono buon senso.
In un’epoca in cui le aziende iniziano a usare l’intelligenza artificiale per selezionare candidati, approvare prestiti o analizzare performance, questo dato dovrebbe accendere più di una spia. Se ChatGPT “ragiona” con gli stessi errori degli umani, il rischio è che le decisioni automatizzate finiscano per amplificare distorsioni già presenti nel sistema.
Yang Chen, autore principale della ricerca, è chiaro: “Quando l’IA apprende dai dati umani, finisce per pensare come un essere umano, bias inclusi”. Per questo, secondo i ricercatori, l’idea che l’intelligenza artificiale sia un arbitro imparziale è una pericolosa illusione. Aggiunge Samuel Kirshner: “L’IA non è un giudice neutrale. Se non viene monitorata, potrebbe peggiorare le decisioni invece di migliorarle”.
La soluzione proposta è semplice nella teoria ma meno nella pratica: serve una supervisione umana continua, una sorta di audit costante sui sistemi di IA, trattandoli come dipendenti con potere decisionale. Meena Andiappan suggerisce di adottare linee guida etiche, protocolli di verifica e controlli regolari. Perché un modello troppo autonomo potrebbe automatizzare, con grande efficienza, proprio gli errori che dovremmo evitare.
Leggi anche: Avvocato usa l’intelligenza artificiale per scrivere la sua arringa
La ricerca solleva quindi una questione fondamentale per il futuro dell’uso dell’IA nei processi decisionali: quanto possiamo davvero fidarci di un sistema che, pur non avendo emozioni, ne replica perfettamente gli errori? La risposta non è rassicurante, ma almeno ci consola sapere che anche l’intelligenza artificiale, come noi, ogni tanto ha bisogno di una seconda opinione.
Share