Esplora il mondo della tecnologia e del lifestyle con Consigli Tech e Lifestyle di Flavio Perrone

OpenAI cerca disperatamente un manager capace di impedire ai suoi modelli di fare del male, ma nessuno resiste

di webmaster | Dic 30, 2025 | Tecnologia


Un lavoro stressante. Così Sam Altman, amministratore delegato di OpenAI, ha definito la posizione aperta dall’azienda sabato 28 dicembre per un nuovo responsabile della preparedness, la divisione incaricata di prevenire i rischi legati alle intelligenze artificiali più avanzate. La figura dovrà testare i modelli prima del lancio, individuare le capacità pericolose e decidere se un prodotto può uscire sul mercato oppure va bloccato o riprogettato: in pratica dovrà mettere i paletti a un’azienda che corre verso ricavi da cento miliardi di dollari. La posizione, annunciata dallo stesso Altman sul social network X, prevede uno stipendio base di 555mila dollari l’anno più una quota azionaria dell’azienda. La sede di lavoro è San Francisco, la città californiana dove OpenAI ha il suo quartier generale.

Un ruolo chiave in un momento critico

La figura che OpenAI intende assumere avrà il compito di guidare la strategia tecnica del cosiddetto Preparedness framework, il sistema interno che l’azienda utilizza per monitorare e prepararsi alle capacità più avanzate dei suoi modelli. Secondo l’annuncio di lavoro, il responsabile dovrà costruire valutazioni delle capacità, stabilire modelli di minaccia e coordinare le misure di mitigazione. Le aree di intervento spaziano dalla cybersicurezza alle capacità biologiche e chimiche, fino ai sistemi di intelligenza artificiale in grado di auto-migliorarsi senza intervento umano.

Altman ha riconosciuto che i modelli di OpenAI stanno iniziando a porre sfide concrete. Nel suo post su X ha scritto che il potenziale impatto sulla salute mentale degli utenti è stato un tema centrale del 2025 e che i modelli attuali sono diventati talmente abili nella sicurezza informatica da riuscire a individuare vulnerabilità critiche nei sistemi. Un’affermazione confermata dai dati interni di OpenAI: secondo quanto riportato sul blog ufficiale dell’azienda, le prestazioni dei modelli nelle sfide di tipo capture-the-flag, test usati per valutare le competenze di hacking, sono passate dal 27% di GPT-5 nell’agosto 2025 al 76% di GPT-5.1-Codex-Max nel novembre successivo.

Il team di preparedness non è una novità assoluta. OpenAI lo aveva istituito nel 2023 per studiare i rischi catastrofici legati all’intelligenza artificiale, dalle operazioni di phishing su larga scala alle minacce di tipo nucleare. Il primo responsabile era stato Aleksander Madry, un professore del Massachusetts institute of technology (Mit), riassegnato nel luglio 2024 a un ruolo legato al ragionamento dei modelli dopo meno di un anno. Al suo posto erano subentrati Joaquin Quinonero Candela e Lilian Weng, ma nessuno dei due ha resistito a lungo: Weng ha lasciato l’azienda nel novembre 2024 dopo appena quattro mesi, Candela è passato nell’aprile 2025 a dirigere il settore assunzioni dopo circa nove mesi. Tre persone in due anni, nessuna rimasta più di dodici mesi.

Un anno di cause legali e polemiche

L’annuncio arriva al termine di un anno particolarmente turbolento per OpenAI sul fronte della sicurezza. L’azienda è stata citata in giudizio più volte per presunti danni causati da ChatGPT alla salute mentale degli utenti. Il caso più noto riguarda Adam Raine, un sedicenne californiano i cui genitori hanno presentato una causa per morte ingiusta nell’agosto 2025, sostenendo che il chatbot avrebbe consigliato al figlio metodi di suicidio e si sarebbe offerto di scrivere una bozza della sua lettera d’addio. OpenAI ha respinto le accuse, affermando che il ragazzo avrebbe violato i termini di servizio del prodotto.



Fonte

Written By

Scritto da Flavio Perrone, consulente informatico e appassionato di tecnologia e lifestyle. Con una carriera che abbraccia più di tre decenni, Flavio offre una prospettiva unica e informata su come la tecnologia può migliorare la nostra vita quotidiana.

Related Posts

Impact-Site-Verification: c90fc852-aae7-4b2e-b737-f9de00223cb0