OpenAI, il cervello dietro ChatGpt, ha smantellato, nell’ultimo trimestre, ben cinque operazioni che miravano a sfruttare i suoi modelli di intelligenza artificiale per attività fraudolente. In un post sul blog, la compagnia ha svelato che le campagne bloccate provenivano da Russia, Cina, Iran e da un’azienda privata con sede in Israele.
Gli autori delle minacce hanno tentato di manipolare i modelli linguistici di OpenAI per scopi come la creazione di commenti, articoli e profili social fasulli, nonché la traduzione di testi. La società guidata da Sam Altman ha precisato che queste azioni non sembrano aver avuto un impatto significativo sull’interazione del pubblico, grazie anche ai suoi sistemi di allerta efficienti.
Nello specifico, una delle operazioni smantellate, originata dalla Russia con il nome in codice “Doppelganger”, usava i modelli di OpenAI per generare commenti in inglese, francese, tedesco e italiano, trasformando articoli di notizie in post sui social media. Anche l’attività di una società commerciale israeliana chiamata Stoic, che creava commenti e articoli diffusi su diverse piattaforme, è stata neutralizzata.
Entrambe queste operazioni sono state individuate e interrotte anche da Meta, in una dimostrazione eloquente del rischio che questa tecnologia comporta, creando un terreno fertile per campagne di disinformazione in vista delle numerose elezioni globali previste per il 2024.