Esplora il mondo della tecnologia e del lifestyle con Consigli Tech e Lifestyle di Flavio Perrone

Con i nudi deepfake siamo solo all’inizio, i contenuti sessuali non consensuali sono sempre più evoluti e pericolosi

di webmaster | Gen 29, 2026 | Tecnologia


ā€œIn genere, le vittime o le persone colpite da questo fenomeno sono donne e bambini, oppure altre minoranze di genere o sessualiā€, spiega Pani Farvid, professoressa associata di psicologia applicata e fondatrice del The SexTech Lab presso The New School. ā€œCome societĆ , a livello globale, non prendiamo sul serio la violenza contro le donne, qualunque forma assumaā€.

ā€œEsiste un ampio spettro di comportamenti, alcuni responsabili sono più opportunisti e non colgono il danno che stanno causando, questo avviene anche in base a come viene presentato uno strumento di AIā€, osserva Farvid, sottolineando che alcuni servizi di ā€œcompagniā€ AI (companion) offrono agli utenti servizi costruiti in base al genere. ā€œIn altri casi, invece, si tratta di persone inserite in reti di abusi o in circuiti di abuso sui minori, oppure di individui che giĆ  praticano altre forme di violenza, dalla violenza di genere a quella sessualeā€.

Uno studio australiano guidato dal ricercatore Asher Flynn ha intervistato 25 tra autori e vittime di abusi tramite deepfake. La ricerca individua tre fattori chiave che incidono sulla prevenzione e sulla risposta a un problema ancora in espansione: strumenti di deepfake sempre più facili da usare, la normalizzazione della creazione di immagini sessuali non consensuali e la minimizzazione dei danni provocati. A differenza della diffusione pubblica su larga scala osservata nel caso delle immagini non consensuali create con Grok su X, lo studio rileva che i deepfake espliciti vengono più spesso condivisi in modo privato, direttamente con le vittime o con amici e familiari. ā€œHo semplicemente usato gruppi WhatsApp personaliā€, ha raccontato uno degli intervistati agli autori dello studio. ā€œAlcuni di questi gruppi arrivavano ad avere fino a 50 personeā€.

La ricerca ha individuato quattro motivazioni principali alla base di questo tipo di abusi. Tra i 10 responsabili di abusi consultati, otto si sono identificati come uomini. Alla base delle loro azioni c’erano ragioni che includono l’estorsione sessuale, il desiderio di arrecare danno ad altri, la ricerca di approvazione o complicitĆ  all’interno del proprio gruppo e la curiositĆ  verso gli strumenti e ciò che permettono di fare.

Diversi esperti interpellati da Wired osservano che molte delle comunitĆ  impegnate nello sviluppo di strumenti di deepfake mostrano un atteggiamento sbrigativo o superficiale rispetto ai danni che producono. ā€œC’è una tendenza a considerare con una certa banalitĆ  l’uso di questi strumenti per creare immagini intime non consensuali, o persino il semplice accesso, ed ĆØ qualcosa di profondamente preoccupanteā€, spiega Bruna Martins dos Santos, responsabile delle politiche e dell’advocacy presso l’organizzazione per i diritti umani Witness.

Per alcuni dei soggetti che commettono abusi tramite deepfake, la tecnologia diventa soprattutto una fonte di potere e controllo. ā€œVuoi semplicemente vedere che cosa ĆØ possibile fareā€, ha raccontato una di queste persone a Flynn e agli altri ricercatori coinvolti nello studio. ā€œQuando ti rendi conto di essere capace di creare qualcosa del genere, arriva una sorta di euforia quasi divinaā€.

Questo articolo ĆØ apparso originariamente su Wired US.



Fonte

Written By

Scritto da Flavio Perrone, consulente informatico e appassionato di tecnologia e lifestyle. Con una carriera che abbraccia più di tre decenni, Flavio offre una prospettiva unica e informata su come la tecnologia può migliorare la nostra vita quotidiana.

Related Posts

Impact-Site-Verification: c90fc852-aae7-4b2e-b737-f9de00223cb0