Le politiche di Meta riguardanti le immagini deepfake non consensuali sono state criticate per non essere abbastanza chiare. È quanto afferma l’Oversight Board, un comitato di supervisione indipendente creato nel 2020, in merito a un caso di deepfake coinvolgente due personaggi famosi.
Il consiglio ha preso posizione dopo che Meta non ha rimosso un deepfake riguardante una donna indiana nonostante le segnalazioni ricevute.
Un utente aveva segnalato il contenuto come pornografia a Meta, ma poiché la notifica non è stata gestita entro 48 ore, è stata automaticamente eliminata. Anche un secondo tentativo di segnalazione è stato chiuso in modo automatico. In un altro caso, Meta ha censurato un post condiviso su un gruppo Facebook dedicato all’arte con l’IA, contenente un’immagine generata artificialmente esplicita.
L’Oversight Board ha sottolineato che i deepfake violavano le regole aziendali e che i termini utilizzati per descrivere tali regole sono obsoleti, il che potrebbe rendere difficile per gli utenti segnalare contenuti inappropriati.
Il consiglio ha suggerito che le politiche di Meta riguardanti le immagini deepfake non consensuali devono essere aggiornate per essere più chiare su cosa costituisca un contenuto dannoso per una persona, considerando le nuove tecnologie basate sull’intelligenza artificiale che permettono la creazione e la manipolazione delle immagini.
Meta ha risposto accogliendo favorevolmente le raccomandazioni del consiglio e si è impegnata a esaminarle attentamente.
© Copyright