Seleziona una pagina


La società OpenAI ha fornito alcuni dati relativi all’utilizzo del tool durante la campagna elettorale e la notte del voto: durante l’Election day e le 24 ore successive, ChatGPT ha invitato gli utenti a visitare fonti affidabili sulle elezioni per oltre 2 milioni di volte

In vista delle elezioni statunitensi che hanno riportato Donald Trump alla Casa Bianca – come vi abbiamo raccontato qui – diversi chatbot di intelligenza artificiale, tra cui ChatGPT e Gemini, hanno imposto dei limiti ai loro sistemi per arginare la disinformazione che avrebbero potuto generare. Adesso OpenAI, la società che controlla ChatGPT, ha fornito sul suo blog alcuni dati su quanti utenti abbiano chiesto al chatbot informazioni o contenuti sulle elezioni presidenziali. Secondo quanto dichiarato dalla compagnia, nel mese precedente il voto in un milione di risposte circa, generate da ChatGPT, le persone sono state invitate a consultare CanIVote.org, organizzazione bipartisan che fornisce informazioni affidabili e verificate sul voto. Il giorno delle elezioni invece le persone che chiedevano al chatbot i risultati del voto venivano indirizzate a fonti affidabili quali Reuters o Associated Press: nel corso dell’Election Day e nelle 24 ore successive questo tipo di risposta è stata fornita 2 milioni di volte.

La prevenzione sul tema deepfake

Le richieste a ChatGPT, comunque, non si sono limitate alle informazioni circa le elezioni. OpenAI ha spiegato di aver “applicato misure di sicurezza per far sì che il chatbot rifiutasse richieste di generare immagini di persone reali, compresi i politici”. Per la società “queste restrizioni sono particolarmente importanti nel contesto di un’elezione” per evitare che i tool possano essere usati per provare a generare contenuti fuorvianti o ingannevoli. Secondo i dati rilasciati da OpenAI, nel mese precedente al voto ChatGPT ha rifiutato oltre 250mila richieste di generare immagini di Donald Trump, JD Vance, Kamala Harris, Tim Walz e Joe Biden. Infine, sostiene la compagnia, i suoi modelli di IA non sarebbero stati utilizzati in campagne di disinformazione che siano diventati virali o abbiano raggiunto un numero considerevole di utenti.

I timori sulla disinformazione generata dall’IA

La rapida diffusione dell’intelligenza artificiale generativa – come sottolineato anche da CNBC – ha generato timori su come la disinformazione creata con questa tecnologia potesse influenzare le numerose elezioni svoltesi nel mondo nel 2024, da quelle europee la scorsa primavera fino a quelle statunitensi dei giorni scorsi. Comunque, come vi abbiamo raccontato, il Forum sulla Sicurezza Globale di Monaco ha ridimensionato alcune previsioni allarmistiche sull’impatto dell’AI nella diffusione di disinformazione diffuse a inizio anno.




leggi anche

I chatbot per la ricerca online alla prova delle elezioni Usa

Le elezioni al tempo dell’IA

Il sito specializzato TechCrunch sottolinea che queste elezioni presidenziali sono le prime in cui l’intelligenza artificiale generativa era così facilmente accessibile a un numero così vasto di persone, e dunque “anche numeri approssimativi sono interessanti per riflettere”. Ai dati di OpenAI – 2 milioni di richieste durante il voto, 250mila immagini rifiutate nel mese precedente al voto – si aggiungo anche quelli di Perplexity, motore di ricerca IA, che secondo quanto riportato da Bloomberg avrebbe registrato oltre 4 milioni di pagine viste sul suo aggregatore di informazioni sul voto. TechCrunch sottolinea come sia “difficile dire se si tratta di numeri alti oppure bassi”: per fare un raffronto, CNN ha registrato 67 milioni di utenti unici nel giorno delle elezioni. Tuttavia è interessante notare come “milioni di persone erano interessate” all’evento “e si sono fidate abbastanza delle compagnie di intelligenza artificiale” per fare un tentativo con questi tool.




leggi anche

Elezioni USA 2024 e disinformazione, AI e rischio deepfake



Fonte