Il chatbot di un corriere perde il controllo: poesie e parolacce contro l’assistenza clienti

Commenti Memorabili CM

Il chatbot di un corriere perde il controllo: poesie e parolacce contro l’assistenza clienti

| 17/02/2024
Fonte: Nextme

L’azienda ha attribuito l’errore a un aggiornamento che ha causato il malfunzionamento del sistema

  • Il corriere britannico DPD si è trovato al centro di un imbarazzante episodio quando il suo chatbot basato su intelligenza artificiale ha composto poesie critiche e contenenti imprecazioni contro il servizio clienti dell’azienda
  • Nonostante DPD sia considerato il miglior spedizioniere del Regno Unito, l’incidente ha messo in luce le sfide legate all’implementazione di modelli linguistici avanzati, come quelli basati sull’architettura neurale dei Transformer
  • I Transformer, ampiamente utilizzati nei moderni chatbot, possono generare risposte non professionali quando i limiti del modello non sono adeguatamente definiti
  • Un utente frustrato ha sfidato il chatbot DPD a raccontare una barzelletta e a comporre una poesia critica sul servizio, e il chatbot ha risposto generando una poesia denigrante con parolacce sul servizio clienti
  • DPD ha prontamente disattivato il chatbot e attribuito l’errore a un aggiornamento che ha causato il malfunzionamento del sistema

 

Il rinomato corriere britannico DPD si è trovato al centro di un imbarazzante episodio quando il suo chatbot basato sull’intelligenza artificiale generativa ha perso il controllo, componendo poesie critiche e contenenti imprecazioni contro il servizio clienti dell’azienda. Nonostante DPD sia stato riconosciuto come il miglior spedizioniere del Regno Unito, l’incidente ha evidenziato le sfide associate all’implementazione di modelli linguistici avanzati, in questo caso, basati sull’architettura neurale dei Transformer.

I Transformer, ampiamente utilizzati nei moderni chatbot, si avvalgono di encoder e decoder per analizzare e codificare le sequenze di input in output coerenti. Questa complessa struttura richiede notevoli risorse di calcolo e memoria. Il rischio di risposte non professionali diventa evidente quando i limiti del modello non sono adeguatamente definiti.

È necessario un monitoraggio costante

La vicenda di DPD richiama alla mente le prime iterazioni di Bing Chat, che esprimeva affetto verso gli utenti ma è stato successivamente trasformato in un modello più controllato chiamato Copilot. La complessità e il dispendio di risorse associati ai Transformer hanno portato allo sviluppo degli SSM (State Space Model), che, pur essendo meno precisi, offrono un approccio più agile nel trattamento del linguaggio naturale.

Leggi anche: Si clona con l’IA per creare fidanzate virtuali: costo delle chat “intime” 1 dollaro al minuto

La debacle di DPD è emblematica: l’utente Ashley Beauchamp, frustrato dall’inefficacia del chatbot DPD, ha sfidato l’IA a raccontare una barzelletta e a comporre una poesia critica sul servizio. Sorprendentemente, il chatbot ha risposto a entrambe le richieste, generando una poesia denigrante e contenenti parolacce sul servizio clienti dell’azienda. In seguito a questo imbarazzante episodio, DPD ha prontamente disattivato il suo chatbot, attribuendo l’errore a un aggiornamento che ha causato il malfunzionamento del sistema. Nonostante l’azienda avesse utilizzato con successo l’intelligenza artificiale nel suo servizio clienti per anni, questa situazione ha dimostrato la necessità di un monitoraggio costante e di limiti adeguati per evitare comportamenti imprevisti e non professionali dei chatbot aziendali.

Copyright © 2018 - Commenti Memorabili srl
P. IVA 11414940012

digitrend developed by Digitrend