Seleziona una pagina


Un report redatto dal Servizio europeo per l’azione esterna dell’Unione ha analizzato 750 casi di interferenze e manipolazioni dell’informazione provenienti dall’esterno, mettendo in luce i principali bersagli di queste campagne e i canali online attraverso cui vengono diffusi questi contenuti. Per gli analisti l’intelligenza artificiale potrebbe essere un valido alleato per contrastare questi attacchi

Se per il World Economic Forum la disinformazione – spinta anche dall’intelligenza artificiale – è la principale minaccia a livello globale nell’immediato futuro, un nuovo report dell’Unione Europea ha approfondito i meccanismi e le possibili minacce dietro alle “Foreign Information Manipulation and Interference”, le interferenze e manipolazioni dell’informazione provenienti dall’esterno, in un anno in cui sono previsti diversi importanti appuntamenti elettorali tra cui proprio le elezioni Europee. L’alto rappresentante Ue Josep Borrell ha sottolineato come “la disinformazione pone un problema per la nostra sicurezza”, e l’allarme è crescente in vista dei vari appuntamenti alle urne. Il report, prodotto dal Servizio europeo per l’azione esterna dell’Ue, ha analizzato centinaia di casi di manipolazione delle informazioni e interferenze esterne, fornendo diversi interessanti informazioni: Paesi e individui maggiormente bersagliati, canali di diffusione online e anche il ruolo dell’intelligenza artificiale in queste campagne. “L’IA sta compiendo una vera e propria rivoluzione nel modo in cui è possibile manipolare le informazioni: oggi è molto più economico produrre e molto difficile individuare le informazioni, che sono completamente false”, ha detto ancora Borrell. Secondo il report, comunque, l’intelligenza artificiale potrebbe essere anche una preziosa alleata per contrastare questi attacchi.

I casi analizzati dal report

Il report è stato prodotto dall’EEAS, il “Servizio europeo per l’azione esterna”: è il servizio diplomatico dell’Unione Europea e porta avanti la politica estera e di sicurezza dell’Ue. Si tratta del secondo documento focalizzato sulle FIMI – “Foreign Information Manipulation and Interference”, chiamate anche disinformazione come sottolineato dalla stessa EEAS -, cioè attività manipolatorie, condotte intenzionalmente e in modo coordinato, da attori statali o no, che minacciano o impattano negativamente sui valori e sui processi politici dei bersagli. Dalla pubblicazione del primo report a inizio 2023 “attori esterni hanno continuato – con i loro tentativi strategici, intenzionali e coordinati – a manipolare i fatti, creare confusione, a seminare discordia, paura e rabbia”. L’obiettivo di queste operazioni, si legge ancora, è quello di “minare la credibilità delle istituzioni democratiche e incoraggiare divisioni e polarizzazioni nelle società europee”.

Colpite l’Ucraina, la comunità LGBTQI+ e non solo

La seconda edizione del report è basata su 750 casi di “Foreign Information Manipulation and Interference”. Gli esempi sono stati raccolti e analizzati da dicembre 2022 a novembre 2023, e hanno portato ad alcune conclusioni: in primo luogo dal report emerge come l’Ucraina sia il Paese più bersagliato da tali attività, ma anche come siano molti – e non solo politici – i soggetti coinvolti dagli attacchi. Sono infatti ben 149 le organizzazioni prese di mira: tra queste ci sono l’Unione europea e gli Stati membri, la NATO, gli Stati Uniti, ma anche media come il New York Times, Euronews e Reuters, e comunità come quella LGBTQI+. Ci sono poi 59 persone che sono state vittime di attacchi, tra cui il presidente ucraino Volodymyr Zelensky e il suo omologo francese Emmanuel Macron. Inoltre, figure pubbliche non politiche come Nicolas Cage, Margot Robbie e altri hanno visto loro malgrado le loro voci, volti e frasi manipolati per generare deepfake per raggiungere un’audience più vasta.

Fake Dictionary word, Dictionary definition of disinformation




leggi anche

La disinformazione è “il più grande pericolo globale a breve termine”

Gli Stati e le persone più colpite

Analizzando nello specifico gli attacchi condotti, il report indica come nel 49% dei casi analizzati i Paesi e i loro rappresentati sono stati presi di mira direttamente 480 volte. Come detto lo Stato più bersagliato è risultato essere l’Ucraina, con 160 casi, seguito dagli Stati Uniti con 58 e poi da Polonia (58), Germania (31) e Francia (25). Per quanto riguarda invece gli attacchi contro organizzazioni, gruppi e individui, il report sottolinea come il 30% di tutti i casi analizzati abbiano avuto come obiettivo 149 diverse organizzazioni per un totale di 318 volte. La più colpita è stata l’Unione europea, coinvolta nel 19% degli attacchi diretti contro organizzazioni, seguita dalla NATO (15%) e dalle forze armate ucraine (14%). Nel 18% di tutti i casi analizzati sono inoltre stati presi di mira 59 individui, per un totale di 171 volte. Al primo posto c’è il presidente ucraino Zelensky, coinvolto nel 40% degli attacchi diretti contro individui, seguito dall’Alto rappresentate dell’Ue Josep Borrell (20%) e dalla presidente della Commissione Ue Ursula von der Leyen (9%). Inoltre, il report sottolinea come siano stati registrati attacchi anche contro la comunità LGBTQI+, mostrando un trend preoccupante che è stato analizzato nei mesi scorsi in uno specifico report.

2G88F7A Biometric identification of a person's face using AI and superimposing on another using deepfake. Vector illustration.




leggi anche

I casi Taylor Swift, Tom Hanks e non solo: pericoli dietro ai deepfake

Gli attacchi diffusi tramite canali coordinati

Il report ha preso in esame anche come questi attacchi vengono organizzati e diffusi online tramite canali coordinati: questi canali possono essere siti internet oppure profili, pagine e gruppi sui social network. Per creare una “foreign information manipulation and interference” gli attori malintenzionati pubblicano i contenuti e li condividono attraverso una varietà dei canali sopra citati, dando così l’illusione di una reale discussione in merito e anche al fine di offuscare l’origine del contenuto. L’analisi condotta ha portato a identificare circa 4mila diversi canali coinvolti in queste operazioni: molti di questi canali sono apparsi solo una o due volte tra tutti i casi analizzati, altri invece sono stati coinvolti in decine di casi. Le piattaforme più utilizzate sono state Telegram (496 volte) e X (452), ma è stata osservata attività anche su altre piattaforme come Facebook, Youtube e TikTok.

Il ruolo dell’intelligenza artificiale

Inoltre il report, prima di focalizzarsi sull’analisi delle possibili risposte a queste minacce, approfondisce il ruolo dell’intelligenza artificiale nelle “foreign information manipulation and interference” e nella disinformazione più in generale. Per gli analisti gli attori malintenzionati sono stati rapidi a sperimentare con le nuove tecnologie capaci di generare contenuti sintetici: vengono fatti gli esempi di un video generato nel novembre del 2023, in cui si cercava di convincere gli ucraini a tentare un colpo di Stato; un altro caso, a fine dicembre 2023, è quello di un video generato dall’intelligenza artificiale della presidente moldava Maia Sandu diffusi da nuovi account che fingevano di essere canali ufficiali del governo. Finora, comunque, nei 750 casi presi in esame dal report meno di 20 hanno visto l’utilizzo di media generati dall’intelligenza artificiale, e l’uso dell’IA appare come “più un’evoluzione che una rivoluzione” in questo tipo di operazioni. Infine è sottolineato come l’aumento esponenziale dei tool basati sull’intelligenza artificiale potrebbe perfino portare più benefici a chi cerca di difendersi, piuttosto che a chi cerca di portare avanti simili attacchi.

San Francisco, USA - July 2021: Tiktok app logo on mobile phone screen




leggi anche

Ucraina, account fake su TikTok hanno diffuso disinformazione russa

Il progetto AI4TRUST

L’intelligenza artificiale, in effetti, può essere usata anche per contrastare fenomeni come la diffusione della disinformazione online. È proprio questo l’obiettivo di AI4TRUST, progetto europeo che coinvolge 17 partner (tra i quali SkyTG24) da 11 Paesi e finanziata dal programma Horizon Europe dell’Unione Europea. L’obiettivo è proprio quello di contrastare la disinformazione online, sfruttando gli strumenti che l’intelligenza artificiale può mettere a disposizione delle persone. Il progetto mira a creare un ambiente sicuro, che integri il monitoraggio di social network e media con le più avanzate tecnologie basate sull’intelligenza artificiale così da rendere più efficace l’attività di giornalisti, fact-checkers e decisori politici. 

Texture backgrounds | Explainers YouTube Thumbnails - Title text




leggi anche

AI4TRUST, intelligenza artificiale contro disinformazione online VIDEO



fonte : skytg24