āIn genere, le vittime o le persone colpite da questo fenomeno sono donne e bambini, oppure altre minoranze di genere o sessualiā, spiega Pani Farvid, professoressa associata di psicologia applicata e fondatrice del The SexTech Lab presso The New School. āCome societĆ , a livello globale, non prendiamo sul serio la violenza contro le donne, qualunque forma assumaā.
āEsiste un ampio spettro di comportamenti, alcuni responsabili sono più opportunisti e non colgono il danno che stanno causando, questo avviene anche in base a come viene presentato uno strumento di AIā, osserva Farvid, sottolineando che alcuni servizi di ācompagniā AI (companion) offrono agli utenti servizi costruiti in base al genere. āIn altri casi, invece, si tratta di persone inserite in reti di abusi o in circuiti di abuso sui minori, oppure di individui che giĆ praticano altre forme di violenza, dalla violenza di genere a quella sessualeā.
Uno studio australiano guidato dal ricercatore Asher Flynn ha intervistato 25 tra autori e vittime di abusi tramite deepfake. La ricerca individua tre fattori chiave che incidono sulla prevenzione e sulla risposta a un problema ancora in espansione: strumenti di deepfake sempre più facili da usare, la normalizzazione della creazione di immagini sessuali non consensuali e la minimizzazione dei danni provocati. A differenza della diffusione pubblica su larga scala osservata nel caso delle immagini non consensuali create con Grok su X, lo studio rileva che i deepfake espliciti vengono più spesso condivisi in modo privato, direttamente con le vittime o con amici e familiari. āHo semplicemente usato gruppi WhatsApp personaliā, ha raccontato uno degli intervistati agli autori dello studio. āAlcuni di questi gruppi arrivavano ad avere fino a 50 personeā.
La ricerca ha individuato quattro motivazioni principali alla base di questo tipo di abusi. Tra i 10 responsabili di abusi consultati, otto si sono identificati come uomini. Alla base delle loro azioni c’erano ragioni che includono l’estorsione sessuale, il desiderio di arrecare danno ad altri, la ricerca di approvazione o complicitĆ allāinterno del proprio gruppo e la curiositĆ verso gli strumenti e ciò che permettono di fare.
Diversi esperti interpellati da Wired osservano che molte delle comunitĆ impegnate nello sviluppo di strumenti di deepfake mostrano un atteggiamento sbrigativo o superficiale rispetto ai danni che producono. āCāĆØ una tendenza a considerare con una certa banalitĆ lāuso di questi strumenti per creare immagini intime non consensuali, o persino il semplice accesso, ed ĆØ qualcosa di profondamente preoccupanteā, spiega Bruna Martins dos Santos, responsabile delle politiche e dellāadvocacy presso lāorganizzazione per i diritti umani Witness.
Per alcuni dei soggetti che commettono abusi tramite deepfake, la tecnologia diventa soprattutto una fonte di potere e controllo. āVuoi semplicemente vedere che cosa ĆØ possibile fareā, ha raccontato una di queste persone a Flynn e agli altri ricercatori coinvolti nello studio. āQuando ti rendi conto di essere capace di creare qualcosa del genere, arriva una sorta di euforia quasi divinaā.
Questo articolo ĆØ apparso originariamente su Wired US.


