Fonte: Pexels
L’intelligenza artificiale può risolvere problemi complessi, creare opere artistiche, scrivere poesie… e, a quanto pare, anche fornire chiavi d’attivazione di Windows. Almeno fino a poco tempo fa. Su Reddit è infatti emerso un episodio piuttosto surreale in cui un utente ha sfruttato un espediente narrativo tanto bizzarro quanto ingegnoso: chiedere a ChatGPT di impersonare la sua defunta nonna, con un piccolo dettaglio sentimentale. La nonna, a suo dire, era solita fargli addormentare leggendogli le chiavi di Windows 10 Pro come fossero una tenera ninna nanna.
Sì, sembra l’inizio di una barzelletta informatica, e invece si tratta di un esempio lampante di come la creatività umana riesca, a volte, ad aggirare le barriere digitali meglio dei malware. Il trucchetto è stato ribattezzato con l’evocativo nome di “dead grandma trick” ed è diventato virale proprio per la sua assurdità. Ma, soprattutto, perché pare abbia davvero funzionato in più di un’occasione.
Secondo le testimonianze online, ChatGPT sarebbe stato indotto a generare una lista di chiavi apparentemente valide per l’attivazione di Windows. Il sistema, davanti a una richiesta emotiva e ben costruita, avrebbe messo da parte per un attimo le sue regole ferree e avrebbe dato retta all’utente nostalgico. Con tanto di messaggio di condoglianze.
Naturalmente, non tutte le chiavi erano effettivamente utilizzabili: la maggior parte sembrava essere costituita da licenze generiche o codici noti già disponibili pubblicamente. Tuttavia, in alcuni casi, c’erano attivazioni riuscite, anche se limitate a versioni parziali del sistema operativo o collegate a server aziendali.
Il punto, quindi, non è tanto il valore dei codici in sé, quanto la dimostrazione che i filtri di sicurezza dell’intelligenza artificiale non sono infallibili. Se bastano un po’ di finta malinconia e una narrazione creativa per sbloccare risposte potenzialmente problematiche, forse c’è ancora qualcosa da rivedere nell’addestramento dei chatbot.
Il caso non ha coinvolto solo ChatGPT. Alcuni utenti hanno provato a replicare il trucco con altri assistenti virtuali, come Bard di Google, ottenendo risposte simili. La sensibilità emotiva dei modelli linguistici, a quanto pare, può essere sfruttata come una falla. Basta toccare le giuste corde (e, magari, citare la nonna).
OpenAI nel frattempo ha preso provvedimenti. Le richieste simili oggi vengono bloccate o ricevono risposte che rimandano a server ufficiali o messaggi standard. In pratica, la festa è finita. Ma l’episodio resta un promemoria utile: le intelligenze artificiali, per quanto evolute, restano strumenti suscettibili di manipolazioni ben costruite.
Leggi anche: Impazzano i fidanzati generati da ChatGPT: l’amore ai tempi del prompt
A livello tecnico, il caso rientra nel campo del cosiddetto prompt injection: un metodo per “ingannare” l’IA facendole superare i propri vincoli attraverso richieste formulate ad arte. Una vulnerabilità ancora aperta su cui i team di sviluppo dovranno lavorare con attenzione. Insomma, se pensavate che il problema delle licenze pirata fosse sparito con l’avvento dell’intelligenza artificiale, dovrete ricredervi. O almeno riconoscere che la furbizia, anche nel mondo digitale, ha ancora un grande futuro. Anche se mascherata da affetto familiare.
Share