Nasce Averi, l’istituto per la verifica e valutazione dell’intelligenza artificiale
Miles Brundage, ex responsabile delle politiche di OpenAI, ha annunciato la nascita dell’AI Verification and Evaluation Research Institute (Averi), un’organizzazione che si propone di promuovere la trasparenza e la sicurezza nell’industria dell’intelligenza artificiale.
In un’intervista a Fortune, Brundage ha spiegato che l’obiettivo di Averi è quello di spingere le aziende che sviluppano intelligenze artificiali a far valutare i loro modelli da enti terzi e non solo da procedure interne. “In un certo senso, oggi ognuno scrive le proprie regole”, ha detto Brundage. “Le compagnie stanno definendo in autonomia le norme”.
Averi ha pubblicato sul proprio sito ufficiale i passaggi previsti per la verifica dei modelli, proponendo un quadro di “garanzia dell’IA” che va dal livello 1, con test generali, al livello 4, che copre i requisiti internazionali sulla sicurezza dell’IA.
Secondo Fortune, sebbene i principali laboratori di intelligenza artificiale conducano test di sicurezza e pubblichino report tecnici sui risultati di molte di queste valutazioni, “consumatori, aziende e governi devono semplicemente fidarsi di ciò che i test affermano. Nessuno li obbliga a condurre valutazioni o a riportarle secondo un insieme specifico di standard”.
Averi non vuole operare come revisore diretto, ma agirà da coordinatore nel definire gli standard che società di consulenza, assicurazioni e startup di sicurezza dovranno seguire. Il progetto ha già raccolto 7,5 milioni di dollari da un pool di finanziatori che include ex dirigenti della Silicon Valley.
FP


