Le aziende di intelligenza artificiale non rispettano gli standard di sicurezza
Secondo un report dell’organizzazione no-profit Future of Life Institute, le principali aziende di intelligenza artificiale come OpenAI, Anthropic, xAI e Meta, hanno pratiche di sicurezza per i progetti di IA “ben lontane dagli standard globali”.
L’istituto, che vanta tra i finanziatori anche Tesla, ha affermato nel suo ultimo “Indice di sicurezza dell’IA” che l’obiettivo principale delle big tech del settore resta quello di raggiungere l’Agi, l’intelligenza artificiale generale, ma “senza avere alcun piano per il controllo di questa tecnologia, lasciando irrisolti i rischi più importanti”.
I criteri di valutazione
Lo studio ha misurato le aziende in sei aree:
- Valutazione dei rischi
- Danni attuali
- Framework di sicurezza
- Sicurezza esistenziale
- Governance e responsabilità
- Condivisione delle informazioni
I risultati
Con un voto espresso da A ad F, nessuna delle prime otto società di IA al mondo (Anthropic, OpenAI, Google DeepMind, xAi, Z.ai, Meta, DeepSeek, Alibaba Cloud) è andata oltre la C, come giudizio globale. Alla cinese DeepSeek viene assegnata una F per la sicurezza aziendale, mentre OpenAI si guadagna una B per la trasparenza nella condivisione delle informazioni.
La valutazione del Future of Life Institute
Per Future of Life Institute, non c’è neanche un’azienda che soddisfi i requisiti “previsti dal Codice di condotta dell’Ue sull’intelligenza artificiale”.
FP



