Seleziona una pagina


All’inizio del 2023, un hacker è riuscito a violare i sistemi di messaggistica interna di OpenAI, accedendo a informazioni riservate sulle tecnologie di intelligenza artificiale dell’azienda. Sebbene OpenAI abbia informato i propri dipendenti dell’incidente, la notizia non è stata resa pubblica né comunicata alle forze dell’ordine, come riportato dal New York Times.

Informazioni rubate da un forum online per i dipendenti

L’hacker è riuscito a sottrarre informazioni dalle discussioni in un forum online riservato ai dipendenti di OpenAI, dove si parlava delle ultime tecnologie sviluppate dall’azienda. Fortunatamente, il cybercriminale non è riuscito a penetrare nei sistemi in cui sono ospitati e addestrati i modelli GPT, limitando così l’entità del danno.

Due fonti che hanno fornito informazioni al New York Times hanno rivelato che alcuni dipendenti di OpenAI temono che attacchi di questo tipo possano essere sfruttati da Paesi come la Cina per rubare la tecnologia dell’AI, mettendo potenzialmente a rischio la sicurezza nazionale degli Stati Uniti.

Dubbi sulla serietà di OpenAI riguardo alla sicurezza

In seguito all’incidente, alcuni dipendenti hanno sollevato dubbi sulla serietà con cui l’azienda affronta le questioni di sicurezza. Sono emerse anche divergenze tra i dipendenti riguardo ai rischi associati all’intelligenza artificiale.

Leopold Aschenbrenner, ex responsabile del programma tecnico di OpenAI, ha scritto una nota al consiglio di amministrazione dell’azienda, sostenendo che la società non stia facendo abbastanza per impedire il furto di segreti da parte di avversari stranieri. Aschenbrenner, che ha accennato alla violazione della sicurezza in un podcast, è stato licenziato da OpenAI per aver fatto trapelare informazioni all’esterno dell’azienda e ritiene che il licenziamento sia stato motivato politicamente.

Problemi crescenti per OpenAI: data breach e conflitti interni

La rivelazione della violazione dei sistemi di OpenAI e delle divisioni tra i dipendenti si aggiunge alla crescente lista di problemi dell’azienda. In passato, l’amministratore delegato Sam Altman ha dovuto affrontare conflitti con un precedente consiglio di amministrazione, uscendone vincitore. Più recentemente, diversi ricercatori sulla sicurezza dell’AI (come Leike e Sutskever) hanno lasciato l’azienda a causa di disaccordi sul superallineamento, ovvero la ricerca di metodi che permettano all’uomo di controllare l’AI superintelligente.

Amodei di Anthropic rassicura sul furto di dati AI

Secondo Daniela Amodei, cofondatrice di Anthropic e figura di spicco nel campo dell’AI, il furto degli ultimi progetti di AI generativa non rappresenterebbe una grande minaccia per la sicurezza nazionale. Tuttavia, man mano che questa tecnologia diventa più avanzata, la situazione potrebbe cambiare, rendendo sempre più cruciale la protezione di queste informazioni sensibili.



Fonte