La società che controlla Facebook, Instagram e l’app di messaggistica starebbe lavorando ad una funzione che sfrutta l’intelligenza artificiale per cercare di contrastare la diffusione di disinformazione e fake news. Non è tuttavia ancora chiaro come funzionerà la verifica dei contenuti, in un sistema che sembra appoggiarsi interamente all’IA senza la supervisione di fact-checkers o esperti umani
Meta – la società che controlla Facebook, Instagram e WhatsApp – starebbe lavorando ad una funzione che sfrutta l’intelligenza artificiale per cercare di contrastare la diffusione di disinformazione e fake news. Secondo quanto riportato da siti specializzati, infatti, in un aggiornamento dell’app per Android è apparso il tasto “Ask Meta AI”, che permetterebbe di verificare se le informazioni ricevute su Whatsapp sono autentiche oppure fake news. Per adesso la funzione sembra essere disponibile solo per alcuni utenti sotto forma di test, mentre il rilascio per tutti sarà graduale.
Come funziona “Ask Meta AI”
Secondo quanto trapelato finora, l’interfaccia per sfruttare “Ask Meta AI” dovrebbe essere piuttosto intuitiva da usare: basterà infatti, come riporta il Corriere della Sera, tenere premuto sul contenuto che si vuole verificare e cliccare “Ask Meta AI” dal menù a tendina che si apre. Gli utenti comunque dovranno porre all’intelligenza artificiale della società di Mark Zuckerberg una domanda diretta, così che l’IA possa verificare se il contenuto selezionato contiene o meno disinformazione. In ogni caso, è ancora riportato, Meta AI continuerà a non avere accesso alle chat degli utenti. Infatti dovrà sempre essere l’utente a decidere se e su quali contenuti far intervenire l’IA. Si tratta insomma di un sistema simile a quanto è possibile fare con Grok su X.
Il contrasto alla disinformazione
L’obiettivo di questa nuova funzionalità sarebbe quello di contrastare la diffusione di disinformazione su WhatsApp, dato che le fake news viaggiano veloci sulle chat al punto che in passato la piattaforma ha perfino inserito una funzione per limitare l’inoltro spropositato dei messaggi. Tuttavia non è ancora chiaro come funzionerà la verifica dei contenuti, in un sistema che sembra appoggiarsi interamente all’intelligenza artificiale senza la supervisione di fact-checkers o esperti umani.
Leggi anche
Truffe con i deepfake, a che cosa fare attenzione e come difendersi
La chiusura del fact-checking su Facebook e Instagram
Nei mesi scorsi la stessa Meta era finita al centro dell’attenzione per la decisione di ridurre in modo significativo le sue politiche di moderazione dei contenuti, inclusa la cessazione del suo programma di fact-checking di terze parti negli Stati Uniti. “Ci libereremo dei fact-checker e li sostituiremo con note della comunità simili a X (ex Twitter), a partire dagli Stati Uniti”, aveva affermato il fondatore e Ceo di Meta, Mark Zuckerberg. La decisione della società era stata applaudita dall’allora presidente eletto Donald Trump, mentre l’inquilino uscente della Casa Bianca Joe Biden aveva bollato la scelta come “vergognosa”.
Leggi anche
Quanto costa la disinformazione online alle aziende? L’analisi del WEF
Il progetto AI4TRUST
Il contrasto alla disinformazione è al centro di AI4TRUST. Il progetto, finanziato dal programma Horizon Europe dell’Unione Europea, si propone di sviluppare una piattaforma contro la disinformazione che combini l’apporto dell’intelligenza artificiale con le verifiche di giornalisti e fact-checker. AI4TRUST, di cui Sky TG24 è partner, è anche stato al centro della puntata del programma di approfondimento “Progress” andata in onda domenica 23 marzo.
Leggi anche
Studio: “Chatbot IA più convincenti degli esseri umani nei dibattiti”




