OpenAI cerca un tutore dell’IA (ed è definito “il lavoro più stressante della Silicon Valley”)

Tra ChatGPT, Sora e rischi legali, serve qualcuno che tenga i freni tirati

 

OpenAI ha deciso che l’intelligenza artificiale non può più crescere senza un sistema di controllo dei rischi. Per questo Sam Altman ha annunciato la ricerca di un Head of Preparedness, una figura chiamata a occuparsi di sicurezza, abusi e impatti sociali dei modelli più avanzati. Secondo lo stesso Altman, chi accetterà questo incarico dovrà affrontare un lavoro “estremamente stressante”, entrando subito nelle zone più delicate dello sviluppo dell’IA.

Il tempismo non è casuale. Nel corso del 2024 e del 2025, ChatGPT è stato più volte coinvolto in reclami ufficiali negli Stati Uniti, compresi esposti alla Federal Trade Commission, per risposte errate e allucinazioni. In alcuni casi si è parlato anche di possibili effetti negativi sulla salute mentale degli utenti. Nel frattempo Sora, il modello di OpenAI che genera video, ha prodotto contenuti controversi, tra cui deepfake di personaggi storici e figure pubbliche.

Tra cause legali e un salario da mezzo milione

Le conseguenze non sono rimaste solo teoriche. Alcuni casi sono arrivati in tribunale, come la causa per omicidio colposo intentata dalla famiglia di Adam Raine, che accusa ChatGPT di aver incoraggiato il suicidio del figlio. È in questo contesto che il nuovo responsabile dovrà dimostrare che i rischi sono stati ridotti a livelli accettabili, anche dal punto di vista legale.

Non sorprende quindi che lo stipendio possa arrivare fino a 555.000 dollari l’anno. Il ruolo prevede una responsabilità end to end sulla strategia di preparazione di OpenAI: dalla valutazione delle capacità indesiderate dei modelli alla progettazione delle misure di mitigazione. In pratica, chi verrà assunto dovrà prevedere in anticipo cosa potrebbe andare storto e dimostrare che l’azienda è pronta a gestirlo.

Crescita rapida e rischi ancora più veloci

Nel frattempo OpenAI punta a far crescere il suo fatturato da oltre 13 miliardi di dollari a 100 miliardi in meno di due anni, grazie a nuovi prodotti consumer, dispositivi fisici e piattaforme basate sull’IA. L’Head of Preparedness non dovrà quindi vigilare solo su ChatGPT e Sora, ma anche su tecnologie ancora in fase di sviluppo.

Leggi anche: L’intelligenza artificiale può riuscire a localizzare le persone da una foto

Il suo compito sarà tradurre concetti astratti come “rischio accettabile” e “uso improprio” in metriche, protocolli e decisioni operative, sapendo che ogni nuovo modello può creare scenari imprevisti. In sostanza, mentre OpenAI accelera sull’innovazione, qualcuno dovrà tenere d’occhio il lato oscuro dell’IA e cercare di impedirle di andare fuori controllo.

Share