Esplora il mondo della tecnologia e del lifestyle con Consigli Tech e Lifestyle di Flavio Perrone

Disinformazione e intelligenza artificiale, cos’è successo nella guerra tra Israele e Iran

da | Giu 26, 2025 | Tecnologia


Nel corso della “guerra dei dodici giorni” sono apparsi e diventati virali online contenuti falsi o manipolati che prendevano di mira entrambe le parti in causa. E alcuni di questi sono stati generati dall’intelligenza artificiale, in un contesto in cui  “forse la prima volta” si è assistito “all’uso su ampia scala dell’IA generativa durante un conflitto”

La “guerra dei dodici giorni” tra Israele e Iran è arrivata a una conclusione, con la tregua annunciata dal presidente degli Stati Uniti Donald Trump ed entrata in vigore all’alba del 24 giugno. Il conflitto – che ha causato la morte di centina di persone nei due Paesi e il ferimento di altre migliaia – è stato segnato anche da diverse narrative false o fuorvianti diffuse nei giorni dei combattimenti, e che hanno preso di mira entrambe le parti in guerra. Inoltre, si è anche registrato un significativo uso di immagini e video generati dell’intelligenza artificiale. La portata e la quantità di questo tipo di contenuti hanno portato AFP a dire che “la guerra dell’informazione che si sta sviluppando parallelamente ai combattimenti a terra” metterebbe in evidenzia “una crisi digitale nell’era degli strumenti di intelligenza artificiale in rapida evoluzione, che ha reso confusi i confini tra verità e finzione”.

Le false narrative a favore di Iran e Israele

Come riportato da BBC, dal momento in cui sono iniziate le operazioni militari si è diffusa online “un’ondata di disinformazione”, con decine di post sui social che hanno cercato di amplificare l’efficacia della risposta iraniana agli attacchi di Israele. L’analisi condotta dall’emittente britannica ha infatti scovato video e immagini generate con l’intelligenza artificiale, per esempio che sostenevano di mostrare i danni causati dagli attacchi su obiettivi israeliani. Tra i video di questo tipo, i tre maggiormente virali hanno raccolto oltre 100 milioni di visualizzazioni su diverse piattaforme. La disinformazione però non è stata solamente filo iraniana: anche account a favore di Israele hanno diffuso informazioni false o fuorvianti, per esempio ricondividendo vecchi filmati di proteste in Iran e affermando falsamente che mostrassero un crescente dissenso nei confronti del regime degli ayatollah e il sostegno popolare alla campagna militare di Israele.

Il ruolo dell’intelligenza artificiale

Secondo quanto riportato da Forbes, l’intelligenza artificiale è stata “un’arma fondamentale” per amplificare le false narrative online. Citando la società GetReal Security, che si occupa di scovare online contenuti falsi o manipolati, la rivista statunitense afferma che il recente modello di Google Veo 3 è stato al centro di alcune campagne: per la chief investigative officer Emmanuelle Saliba il tool è infatti alla base di “una serie di falsi molto realistici in circolazione che affermano di mostrare scene del conflitto tra Israele e Iran”. Per Saliba “questa è forse la prima volta in cui assistiamo all’uso su ampia scala dell’IA generativa durante un conflitto”. In ogni caso Duncan Smith, portavoce di Google Deepmind, ha detto che la società è “impegnata a sviluppare l’intelligenza artificiale in modo responsabile e abbiamo chiare regole per proteggere gli utenti dai potenziali pericoli e regolare l’uso dei nostri tool”. Per quanto riguarda i contenuti generati con Veo 3, comunque, Saliba ha fatto notare che le immagini contengono un watermark – una sorta di filigrana digitale – che rende più semplice identificarli come generati dall’IA. E per quanto non si tratti di un sistema infallibile, è “abbastanza solido”.




Leggi anche

Iran, Netanyahu: “Vittoria contro nemico che voleva distruggerci”

Alcuni esempi di contenuti fake

Tornando all’indagine condotta da BBC Verify, questa ha individuato alcuni esempi diventati virali di contenuti ingannevoli generati con l’intelligenza artificiale: immagini che sembrano mostrare decine missili che cadono su Tel Aviv, apparentemente con lo scopo di esagerare i risultati ottenuti dagli attacchi iraniani, hanno ottenuto oltre 27 milioni di visualizzazioni online. Un altro esempio di fake circolato online è il video su TikTok di un F-35 israeliano abbattuto dalle difese iraniane, ma anche in questo caso si trattava di foto generate con l’intelligenza artificiale: il contenuto ha comunque ottenuto oltre 21 milioni di visualizzazioni. Dall’altro lato, è diventato virare anche un video creato con l’IA che mostrava falsamente cittadini iraniani cantare per le strade di Teheran “noi amiamo Israele”. Il ricercatore dell’università di Notre Dame, Matthew Facciani, ha affermato all’emittente britannica che la disinformazione potrebbe diffondersi più rapidamente quando ci si trova di fronte a una scelta binaria, come avviene in un conflitto. E anche i fact-checkers italiani di Facta hanno raccolto diversi esempi di contenuti falsi o manipolati legati al conflitto.




Leggi anche

Elezioni 2024, disinformazione e IA: rapporto analizza quanto accaduto

L’analisi di NewsGuard del conflitto

Anche NewsGuard, società di monitoraggio dell’affidabilità dei siti di notizie e informazione, ha monitorato la diffusione di contenuti online relativi alla guerra tra Israele ed Iran. E gli analisi hanno “individuato 22 affermazioni false circolate sui social network, e 62 siti che le hanno diffuse”. Anche in questo caso tra gli esempi scovati “ci sono immagini e foto generate con l’intelligenza artificiale che mostrano presunte scene di distruzioni di massa a Tel Aviv, oltre a informazioni false sulla presunta cattura di piloti israeliani e altri membri del personale militare israeliano”. Secondo NewsGuard, inoltre, a diffondere questo tipo di informazioni false sarebbero “canali Telegram legati all’esercito iraniano, oltre ai media ufficiali iraniani che fanno capo all’Islamic Republic of Iran Broadcasting (IRIB), un’azienda statale iraniana”.




Leggi anche

Proteste a Los Angeles, così la disinformazione si è diffusa online

Il progetto AI4TRUST

Il contrasto alla disinformazione online è al centro del progetto AI4TRUST. Finanziato dal programma Horizon Europe dell’Unione Europea, nasce con l’obiettivo di sviluppare una piattaforma contro la disinformazione che combini l’apporto dell’intelligenza artificiale con le verifiche di giornalisti e fact-checker.




Leggi anche

Studio: “Chatbot IA più convincenti degli esseri umani nei dibattiti”

ISCRIVITI AL CANALE WHATSAPP DI SKY TG24



Fonte

Written By

Scritto da Flavio Perrone, consulente informatico e appassionato di tecnologia e lifestyle. Con una carriera che abbraccia più di tre decenni, Flavio offre una prospettiva unica e informata su come la tecnologia può migliorare la nostra vita quotidiana.

Related Posts