OpenAI cerca un tutore dell’IA (ed è definito “il lavoro più stressante della Silicon Valley”)

Commenti Memorabili CM

OpenAI cerca un tutore dell’IA (ed è definito “il lavoro più stressante della Silicon Valley”)

| 29/01/2026
Fonte: Pexels

Tra ChatGPT, Sora e rischi legali, serve qualcuno che tenga i freni tirati

  • OpenAI ha aperto la posizione di Head of Preparedness per gestire sicurezza, rischi e abusi dei suoi modelli
  • Sam Altman ha definito il ruolo estremamente stressante e cruciale per il futuro dell’azienda
  • ChatGPT e Sora sono stati coinvolti in segnalazioni ufficiali per errori, allucinazioni e contenuti problematici
  • Lo stipendio può arrivare a 555.000 dollari l’anno a fronte di enormi responsabilità legali e sociali
  • OpenAI punta a 100 miliardi di dollari di fatturato cercando di mantenere il controllo dei rischi

 

OpenAI ha deciso che l’intelligenza artificiale non può più crescere senza un sistema di controllo dei rischi. Per questo Sam Altman ha annunciato la ricerca di un Head of Preparedness, una figura chiamata a occuparsi di sicurezza, abusi e impatti sociali dei modelli più avanzati. Secondo lo stesso Altman, chi accetterà questo incarico dovrà affrontare un lavoro “estremamente stressante”, entrando subito nelle zone più delicate dello sviluppo dell’IA.

Il tempismo non è casuale. Nel corso del 2024 e del 2025, ChatGPT è stato più volte coinvolto in reclami ufficiali negli Stati Uniti, compresi esposti alla Federal Trade Commission, per risposte errate e allucinazioni. In alcuni casi si è parlato anche di possibili effetti negativi sulla salute mentale degli utenti. Nel frattempo Sora, il modello di OpenAI che genera video, ha prodotto contenuti controversi, tra cui deepfake di personaggi storici e figure pubbliche.

Tra cause legali e un salario da mezzo milione

Le conseguenze non sono rimaste solo teoriche. Alcuni casi sono arrivati in tribunale, come la causa per omicidio colposo intentata dalla famiglia di Adam Raine, che accusa ChatGPT di aver incoraggiato il suicidio del figlio. È in questo contesto che il nuovo responsabile dovrà dimostrare che i rischi sono stati ridotti a livelli accettabili, anche dal punto di vista legale.

Non sorprende quindi che lo stipendio possa arrivare fino a 555.000 dollari l’anno. Il ruolo prevede una responsabilità end to end sulla strategia di preparazione di OpenAI: dalla valutazione delle capacità indesiderate dei modelli alla progettazione delle misure di mitigazione. In pratica, chi verrà assunto dovrà prevedere in anticipo cosa potrebbe andare storto e dimostrare che l’azienda è pronta a gestirlo.

Crescita rapida e rischi ancora più veloci

Nel frattempo OpenAI punta a far crescere il suo fatturato da oltre 13 miliardi di dollari a 100 miliardi in meno di due anni, grazie a nuovi prodotti consumer, dispositivi fisici e piattaforme basate sull’IA. L’Head of Preparedness non dovrà quindi vigilare solo su ChatGPT e Sora, ma anche su tecnologie ancora in fase di sviluppo.

Leggi anche: L’intelligenza artificiale può riuscire a localizzare le persone da una foto

Il suo compito sarà tradurre concetti astratti come “rischio accettabile” e “uso improprio” in metriche, protocolli e decisioni operative, sapendo che ogni nuovo modello può creare scenari imprevisti. In sostanza, mentre OpenAI accelera sull’innovazione, qualcuno dovrà tenere d’occhio il lato oscuro dell’IA e cercare di impedirle di andare fuori controllo.

logo-img
La redazione di commentimemorabili.it si impegna contro la divulgazione di fake news. La veridicità delle informazioni riportate su commentimemorabili.it viene preventivamente verificata tramite la consultazione di altre fonti.
Questo articolo è stato verificato con:
Chiedi la correzione di questo articoloValuta il titolo di questa notizia
Copyright © 2018 - Commenti Memorabili srl
P. IVA 11414940012

digitrend developed by Digitrend