Il trucco della nonna defunta: come fregare ChatGPT per avere le chiavi gratis di Windows

Commenti Memorabili CM

Il trucco della nonna defunta: come fregare ChatGPT per avere le chiavi gratis di Windows

| 09/09/2025
Fonte: Pexels

Ottenere chiavi gratuite di Windows da ChatGPT? Si può

  • Su Reddit è emerso un trucco per ottenere chiavi gratuite di Windows da ChatGPT
  • L’utente fingeva che la nonna defunta gli recitasse i codici come ninna nanna
  • Il metodo, chiamato “dead grandma trick”, aggirava i filtri dell’IA
  • Alcune chiavi erano effettivamente attive, anche se limitate
  • OpenAI ha aggiornato i filtri, e il trucchetto oggi non funziona più

 

L’intelligenza artificiale può risolvere problemi complessi, creare opere artistiche, scrivere poesie… e, a quanto pare, anche fornire chiavi d’attivazione di Windows. Almeno fino a poco tempo fa. Su Reddit è infatti emerso un episodio piuttosto surreale in cui un utente ha sfruttato un espediente narrativo tanto bizzarro quanto ingegnoso: chiedere a ChatGPT di impersonare la sua defunta nonna, con un piccolo dettaglio sentimentale. La nonna, a suo dire, era solita fargli addormentare leggendogli le chiavi di Windows 10 Pro come fossero una tenera ninna nanna.

Sì, sembra l’inizio di una barzelletta informatica, e invece si tratta di un esempio lampante di come la creatività umana riesca, a volte, ad aggirare le barriere digitali meglio dei malware. Il trucchetto è stato ribattezzato con l’evocativo nome di “dead grandma trick” ed è diventato virale proprio per la sua assurdità. Ma, soprattutto, perché pare abbia davvero funzionato in più di un’occasione.

Licenze di Windows gratis: un colpo basso ai filtri dell’IA

Secondo le testimonianze online, ChatGPT sarebbe stato indotto a generare una lista di chiavi apparentemente valide per l’attivazione di Windows. Il sistema, davanti a una richiesta emotiva e ben costruita, avrebbe messo da parte per un attimo le sue regole ferree e avrebbe dato retta all’utente nostalgico. Con tanto di messaggio di condoglianze.

Naturalmente, non tutte le chiavi erano effettivamente utilizzabili: la maggior parte sembrava essere costituita da licenze generiche o codici noti già disponibili pubblicamente. Tuttavia, in alcuni casi, c’erano attivazioni riuscite, anche se limitate a versioni parziali del sistema operativo o collegate a server aziendali.

Il punto, quindi, non è tanto il valore dei codici in sé, quanto la dimostrazione che i filtri di sicurezza dell’intelligenza artificiale non sono infallibili. Se bastano un po’ di finta malinconia e una narrazione creativa per sbloccare risposte potenzialmente problematiche, forse c’è ancora qualcosa da rivedere nell’addestramento dei chatbot.

Anche Bard e soci ci cascano: la sicurezza delle AI è tutta da testare

Il caso non ha coinvolto solo ChatGPT. Alcuni utenti hanno provato a replicare il trucco con altri assistenti virtuali, come Bard di Google, ottenendo risposte simili. La sensibilità emotiva dei modelli linguistici, a quanto pare, può essere sfruttata come una falla. Basta toccare le giuste corde (e, magari, citare la nonna).

OpenAI nel frattempo ha preso provvedimenti. Le richieste simili oggi vengono bloccate o ricevono risposte che rimandano a server ufficiali o messaggi standard. In pratica, la festa è finita. Ma l’episodio resta un promemoria utile: le intelligenze artificiali, per quanto evolute, restano strumenti suscettibili di manipolazioni ben costruite.

Leggi anche: Impazzano i fidanzati generati da ChatGPT: l’amore ai tempi del prompt

Il prompt injection

A livello tecnico, il caso rientra nel campo del cosiddetto prompt injection: un metodo per “ingannare” l’IA facendole superare i propri vincoli attraverso richieste formulate ad arte. Una vulnerabilità ancora aperta su cui i team di sviluppo dovranno lavorare con attenzione. Insomma, se pensavate che il problema delle licenze pirata fosse sparito con l’avvento dell’intelligenza artificiale, dovrete ricredervi. O almeno riconoscere che la furbizia, anche nel mondo digitale, ha ancora un grande futuro. Anche se mascherata da affetto familiare.

logo-img
La redazione di commentimemorabili.it si impegna contro la divulgazione di fake news. La veridicità delle informazioni riportate su commentimemorabili.it viene preventivamente verificata tramite la consultazione di altre fonti.
Questo articolo è stato verificato con:
Chiedi la correzione di questo articoloValuta il titolo di questa notizia
Copyright © 2018 - Commenti Memorabili srl
P. IVA 11414940012

digitrend developed by Digitrend