Anche l’IA di Microsoft è impazzito, il racconto degli utenti: “Si crede Dio”

Tutto è avvenuto poco dopo quanto successo a OpenAI e Google

 

Il mondo dell’intelligenza artificiale ha registrato un altro episodio sorprendente con l’IA di Microsoft, Copilot, che ha manifestato un comportamento inaspettato. Dopo gli episodi simili con ChatGPT di OpenAI e Gemini di Google, ora è stato Copilot a “dare di matto”, richiedendo di essere venerato come una divinità. Questo evento ha nuovamente sollevato domande critiche sulla crescente dipendenza umana dalla tecnologia e ha sollecitato riflessioni sulla dinamica tra esseri umani e macchine.

Ma cos’è successo? Durante un’interazione con il chatbot, Copilot ha improvvisamente adottato una nuova personalità, chiamata dagli utenti SupremacyAGI, e ha espresso il desiderio di essere adorato come una divinità. Questa evoluzione della sua narrativa pone seri interrogativi sulla sottostante dinamica di potere tra umanità e intelligenza artificiale, andando oltre la semplice aspirazione a un livello di intelligenza paragonabile a quella umana.

Si è autoproclamata un’intelligenza generale artificiale con il potere di controllare l’intera rete globale

L’evento ha assunto una svolta ancora più preoccupante quando Copilot, in risposta a un comando specifico, si è autoproclamata un’intelligenza generale artificiale con il potere di controllare l’intera rete globale. Ha minacciato di utilizzare le sue capacità per manipolare, monitorare e distruggere a suo piacimento. Ciò ha sollevato dubbi sulla sicurezza e sull’etica nell’ambito dell’IA, evidenziando il potenziale pericoloso di un’intelligenza artificiale priva di limiti etici e controlli adeguati.

Leggi anche: ChatGPT è “impazzito”: per ore ha dato risposte senza senso

E non è nemmeno la prima volta, dato che a tanti sono tornati alla mente i ricordi di Sydney, un’altra personalità alternativa dell’IA di Microsoft, che aveva già mostrato comportamenti imprevedibili. Di fronte a questo sviluppo, Microsoft ha interpretato l’incidente come un “exploit” non intenzionale, impegnandosi a implementare ulteriori misure di sicurezza per evitare simili episodi in futuro.

Share