Seleziona una pagina



Il Comitato per la Sicurezza di OpenAI, istituito lo scorso maggio, è in procinto di diventare un ente indipendente dal consiglio di amministrazione. Questo organismo avrà il compito di supervisionare i processi di sicurezza che guidano l’implementazione e lo sviluppo del modello di Intelligenza Artificiale di OpenAI, secondo quanto dichiarato dalla stessa società sul suo blog ufficiale. Avrà il potere di posticipare il lancio dei sistemi di IA se necessario per approfondire la sicurezza.

A capo di questo Comitato ci sarà Zico Kolter, esperto di apprendimento automatico presso la Carnegie Mellon University, affiancato da membri come Adam D’Angelo, co-fondatore di Quora, Paul Nakasone ex capo dell’NSA e Nicole Seligman, ex vicepresidente esecutivo di Sony. Cinque sono le macro-aree identificate: governance indipendente per la sicurezza, rafforzamento delle misure di sicurezza, trasparenza nel lavoro, collaborazione con organizzazioni esterne e definizione di parametri di sicurezza per lo sviluppo e il monitoraggio dei modelli.

Il Comitato ha già iniziato a valutare la sicurezza del modello di IA ‘o1’ recentemente lanciato e continuerà a ricevere rapporti regolari sulle valutazioni tecniche per modelli attuali e futuri, oltre che sul monitoraggio post-lancio. È interessante notare che il CEO di OpenAI, Sam Altman, non fa più parte del Comitato forse in preparazione al passaggio da no-profit a società a fini di lucro, come ipotizzato da alcuni rumors riportati da Forbes.

© Copyright