Meta ha fatto una pulizia di primavera sui suoi social network eliminando account falsi che sembravano essere stati generati dall’intelligenza artificiale e utilizzati in modo ingannevole. Tra di essi, commenti che elogiavano la gestione della guerra a Gaza da parte di Israele, attribuiti alla società di marketing politico Stoic con sede a Tel Aviv. Questo è quanto riportato nel primo rapporto trimestrale sulla sicurezza della società, il quale monitora l’uso di questa tecnologia dall’esplosione avvenuta alla fine del 2022. Un fenomeno che preoccupa, poiché potrebbe portare a campagne di disinformazione in vista delle imminenti elezioni che si terranno nel 2024.
David Agranovich, a capo del team che si occupa delle minacce online, ha sottolineato che le difese attuali sembrano essere efficaci, mentre si è reso noto che non sono stati ancora identificati casi d’uso dell’intelligenza artificiale generativa in forme estremamente sofisticate. Tuttavia, si è consapevoli che con l’evoluzione delle tecnologie, anche queste reti trufferanno le loro tattiche.
Il rapporto ha evidenziato la chiusura di altre operazioni ingannevoli nel primo trimestre. Un’operazione iraniana focalizzata sul conflitto Israele-Hamas è stata smantellata, così come la rete cinese di disinformazione denominata Operazione K, la quale avrebbe utilizzato l’IA per diffondere informazioni false su un falso movimento di attivisti pro-Sikh in India. Inoltre, un gruppo russo noto come Doppelganger ha tentato invano, attraverso i social media, di influenzare l’opinione pubblica sulla questione ucraina.
Meta ha anche svelato che gli “attori delle minacce” hanno tentato di utilizzare l’intelligenza artificiale generativa per creare foto, video o testi falsi, ma per ora le immagini di personaggi politici non risultano ancora sufficientemente realistiche. La lotta contro la disinformazione online è quindi ancora in corso. (-AFP)