Seleziona una pagina



OpenAI, l’organizzazione dietro ChatGpt e Dall-e, ha svolto un ruolo di primo piano nel contrastare la diffusione di fake news durante le recenti elezioni presidenziali negli Stati Uniti. Consapevole del potenziale impatto delle sue tecnologie, l’azienda ha adottato una serie di misure preventive per evitare che l’intelligenza artificiale venisse utilizzata per manipolare l’opinione pubblica. Ha rifiutato oltre 250.000 richieste di generare immagini dei politici coinvolti, mantenendo un’inequivocabile neutralità politica. Inoltre, ha addestrato ChatGpt a indirizzare gli utenti verso fonti informative affidabili, come CanIVote.org, per evitare la diffusione di informazioni fuorvianti.

Tuttavia, non tutti i creatori di IA hanno un approccio così trasparente. Alcuni strumenti hanno permesso la diffusione di deepfake a fini politici, mettendo in evidenza la necessità di una costante vigilanza e un approccio multifattoriale nella gestione dell’intelligenza artificiale. Un esempio di deepfake mostrava Kamala Harris che parlava della sua candidatura alla presidenza, descrivendosi come rappresentante della diversità degli Stati Uniti. Questo video fasullo è stato condiviso da Elon Musk su X.

In conclusione, OpenAI si è dimostrata un esempio positivo di come le aziende tecnologiche possono contribuire a combattere la disinformazione e ad educare il pubblico sull’importanza di accedere a fonti informative affidabili in un’era in cui le fake news sono sempre più diffuse.