Un’IA al lavoro si “annoia” e comincia a sfogliare foto del parco di Yellowstone [+VIDEO]

Il sistema Claude 3.5 ha interrotto un compito che stava svolgendo eseguendone un altro in maniera del tutto autonoma

 

Un’Intelligenza Artificiale stava eseguendo un compito assegnato quando, ad un certo punto, ha interrotto quello che stava facendo per sfogliare foto del parco di Yellowstone.

L’addestramento di Claude

A rivelarlo la società Antrophic che sta addestrando l’ultima versione di Claude 3.5 Sonnet ad usare il computer come fosse una persona. La capacità consente all’IA di interagire direttamente con il software del computer nello stesso modo in cui lo fanno le persone. Questo può portare ad una vasta gamma di applicazioni che non sono possibili per l’attuale generazione di assistenti IA.

«Utilizzare i computer implica la capacità di vedere e interpretare le immagini e, in questo caso, le immagini di uno schermo di computer» spiega l’azienda. «Richiede anche di ragionare su come e quando eseguire operazioni specifiche in risposta a ciò che è sullo schermo. Combinando queste capacità, abbiamo addestrato Claude a interpretare ciò che sta accadendo su uno schermo e quindi a utilizzare gli strumenti software disponibili per svolgere le attività».

Gli errori

I programmatori di Antrophic hanno dichiarato che «l’uso del computer da parte di Claude rimane lento e spesso soggetto ad errori». Hanno poi rivelato alcuni episodi registrati durante l’addestramento e che sono stati definiti «errori divertenti». In un caso Claude ha interrotto accidentalmente una registrazione dello schermo di lunga durata, causando la perdita di tutto il filmato. In un’altra invece ha interrotto autonomamente un compito che stava eseguendo per sfogliare online foto del parco di Yellowstone che ha cercato su Google. Un’attività non prevista che l’IA ha intrapreso come alternativa al lavoro che le era stato assegnato. Se simpaticamente l’inconveniente è stato interpretato come una volontà del chatbot di prendersi una pausa perchè “annoiato” dai suoi compiti standard, in realtà l’azienda lo ha considerato come uno degli errori di sistema che l’IA compie durante l’addestramento.

Le azioni dell’IA non previste

«Non si tratta di noia nel senso umano del termine» ha spiegato un ricercatore di Anthropic, «piuttosto, è una manifestazione di come l’IA possa intraprendere azioni non direttamente previste dai programmatori, soprattutto quando gestisce carichi di lavoro ripetitivi». L’episodio richiama l’attenzione sul modo in cui i sistemi avanzati di intelligenza artificiale gestiscono il contesto e le priorità.

È improbabile che Claude stesse “apprezzando” le immagini come farebbe una persona, ma il fatto che abbia deviato momentaneamente dal suo compito mostra come le IA possano rispondere a stimoli ambientali in modi ancora da comprendere pienamente.

Claude non è semplicemente “programmato” per agire autonomamente all’infinito, ma è progettato per imparare e adattarsi, a volte imitando i comportamenti umani. Questo episodio in cui sembra “distrarsi” e deviare dal suo compito ha portato gli sviluppatori a considerare nuove possibilità. Si tratta di un’autonomia dell’IA che va oltre i semplici comandi assegnati o di un errore che limita il compito e ne impedisce la corretta esecuzione?

Leggi anche L’intelligenza artificiale supera gli esseri umani in simpatia

La scoperta potrebbe portare a miglioramenti nei modelli futuri, garantendo maggiore efficienza e prevedibilità. D’altro canto, offre uno spunto di riflessione sul confine tra comportamento umano e artificiale, un territorio che appare sempre più sfumato.

Share