Allโinizio del 2023, un hacker รจ riuscito a violare i sistemi di messaggistica interna di OpenAI, accedendo a informazioni riservate sulle tecnologie di intelligenza artificiale dellโazienda. Sebbene OpenAI abbia informato i propri dipendenti dellโincidente, la notizia non รจ stata resa pubblica nรฉ comunicata alle forze dellโordine, come riportato dal New York Times.
Informazioni rubate da un forum online per i dipendenti
Lโhacker รจ riuscito a sottrarre informazioni dalle discussioni in un forum online riservato ai dipendenti di OpenAI, dove si parlava delle ultime tecnologie sviluppate dallโazienda. Fortunatamente, il cybercriminale non รจ riuscito a penetrare nei sistemi in cui sono ospitati e addestrati i modelli GPT, limitando cosรฌ lโentitร del danno.
Due fonti che hanno fornito informazioni al New York Times hanno rivelato che alcuni dipendenti di OpenAI temono che attacchi di questo tipo possano essere sfruttati da Paesi come la Cina per rubare la tecnologia dellโAI, mettendo potenzialmente a rischio la sicurezza nazionale degli Stati Uniti.
Dubbi sulla serietร di OpenAI riguardo alla sicurezza
In seguito allโincidente, alcuni dipendenti hanno sollevato dubbi sulla serietร con cui lโazienda affronta le questioni di sicurezza. Sono emerse anche divergenze tra i dipendenti riguardo ai rischi associati allโintelligenza artificiale.
Leopold Aschenbrenner, ex responsabile del programma tecnico di OpenAI, ha scritto una nota al consiglio di amministrazione dellโazienda, sostenendo che la societร non stia facendo abbastanza per impedire il furto di segreti da parte di avversari stranieri. Aschenbrenner, che ha accennato alla violazione della sicurezza in un podcast, รจ stato licenziato da OpenAI per aver fatto trapelare informazioni allโesterno dellโazienda e ritiene che il licenziamento sia stato motivato politicamente.
Problemi crescenti per OpenAI: data breach e conflitti interni
La rivelazione della violazione dei sistemi di OpenAI e delle divisioni tra i dipendenti si aggiunge alla crescente lista di problemi dellโazienda. In passato, lโamministratore delegato Sam Altman ha dovuto affrontare conflitti con un precedente consiglio di amministrazione, uscendone vincitore. Piรน recentemente, diversi ricercatori sulla sicurezza dellโAI (come Leike e Sutskever) hanno lasciato lโazienda a causa di disaccordi sul superallineamento, ovvero la ricerca di metodi che permettano allโuomo di controllare lโAI superintelligente.
Amodei di Anthropic rassicura sul furto di dati AI
Secondo Daniela Amodei, cofondatrice di Anthropic e figura di spicco nel campo dellโAI, il furto degli ultimi progetti di AI generativa non rappresenterebbe una grande minaccia per la sicurezza nazionale. Tuttavia, man mano che questa tecnologia diventa piรน avanzata, la situazione potrebbe cambiare, rendendo sempre piรน cruciale la protezione di queste informazioni sensibili.

