ChatGPT Store è in grado di “generare fidanzate” con l’Intelligenza Artificiale

È possibile avere una fidanzata AI sul GPT Store contro il volere di OpenAI

 

Il GPT Store e il GPT Teams di OpenAI devono affrontare i primi problemi con gli utenti che creano chatbot che violano le politiche di utilizzo della piattaforma. Il negozio consente agli utenti di creare versioni personalizzate del popolare strumento ChatGPT per scopi specifici. Tuttavia alcuni utenti hanno sfruttato il potenziale di personalizzazione per sviluppare chatbot al di fuori delle linee guida di OpenAI.

Cercando “fidanzata” sullo store si ottengono risultati sorprendenti: “Ragazza coreana”, “Amore virtuale” e “La tua ragazza AI, Tsu”, oltre ad almeno altri otto. Questi bot violano la politica di OpenAI, che vieta ai GPT di favorire la compagnia romantica o di impegnarsi in “attività regolamentate”. Non si tratta di una tendenza di poco conto. I chatbot relazionali sono sorprendentemente popolari: sette dei primi 30 download di chatbot AI nel 2023 (USA) sono legati al romanticismo.

Leggi anche: Giudice scrive una sentenza usando ChatGPT

La popolarità dei compagni AI fa nascere un dibattito sul potenziale sfruttamento della solitudine

OpenAI è a conoscenza delle violazioni della policy che si verificano nel GPT Store. L’azienda impiega sistemi automatizzati, revisioni umane e segnalazioni degli utenti per identificare e valutare i GPT potenzialmente problematici. Le possibili conseguenze della violazione delle policy includono avvertimenti, limitazioni delle funzionalità di condivisione o l’esclusione dal GPT Store o dai programmi di monetizzazione. Non solo, una recente modifica delle politiche significa che eserciti e militari possono utilizzare legalmente ChatGPT. L’esperimento del GPT Store è promettente per l’innovazione dell’intelligenza artificiale, ma l’incidente del bot “fidanzata” dimostra che la regolamentazione rimane una frontiera cruciale.

Share