Esplora il mondo della tecnologia e del lifestyle con Consigli Tech e Lifestyle di Flavio Perrone

Deepfake nudi e pregiudizi, si fa strada l’IA femminista – Notizie

di Flavio Perrone | Gen 31, 2026 | Tecnologia



Scrivi un articolo chiaro, ben strutturato e leggibile. Mantieni i tag HTML.

Pregiudizi di genere nell’intelligenza artificiale, deepfake a sfondo sessuale diventati un caso con Grok. Gli spazi online perpetuano gli stereotipi di coloro che li creano e dai dati inseriti, al momento prevalentemente uomini. Secondo stime rilanciate dal World Economic Forum le donne costituiscono meno di un terzo della forza lavoro IA in tutto il mondo. Un fenomeno globale che sta portando alla costruzione di alternative tecnologiche come la Rete Femminista di IA dell’America Latina e dei Caraibi.

La letteratuta tecnologica è piena di esempi di pregiudizi di genere. I sistemi di riconoscimento delle immagini hanno faticato a identificare accuratamente le donne, in particolare di colore, portando a identificazioni errate con gravi conseguenze per le forze dell’ordine. Gli assistenti vocali hanno a lungo utilizzato solo voci femminili rafforzando lo sterotipo secondo cui le donne sono adatte a ruoli di servizio. Nella generazione di immagini, le IA spesso associano il termini ‘Ceo’ a un uomo mentre se si cerca ‘assistente”, restituisce immagini femminili.

“L’Intelligenza artificiale si nutre di dati che non sono neutrali: riflettono società segnate da disuguaglianze storiche e rapporti di potere – spiega all’ Ivana Bartoletti, esperta internazionale di governance dell’Intelligenza artificiale e autrice di uno studio del consiglio di Europa su IA e Gender – Se un’azienda vuole risultati equi deve interrogare i dataset, verificarne la rappresentatività e intervenire attivamente quando non lo sono. L’equità non emerge da sola: va progettata”.

Per Bartoletti, il recente caso Grok – l’IA di Elon Musk che dava la possibilità di generare nudi falsi di donne e minori, funzione poi sospesa – “mostra cosa succede quando sicurezza e diritti delle donne non sono considerati nel design dei sistemi”. “Se esistono strumenti per nudificare le donne, verranno usati – spiega – I deepfake nudi sono una forma di umiliazione e controllo. Il messaggio implicito è pericoloso: sei online, quindi te lo meriti. È così che molte donne vengono silenziate e abbandonano lo spazio digitale”.

È in questo contesto che stanno nascendo alternative tecnologiche per ripensare l’intelligenza artificiale e farla diventare terreno di lotta e potere condiviso. Ad esempio in America Latina e Caraibi è nata la Rete Femminista di IA che sostiene decine di progetti orientati alla trasparenza e alle politiche pubbliche. Ci sono strumenti come AymurAI, Arvage IA e SofIA che applicano il genere all’analisi giuridica e smascherano i ‘bias’, le discriminazioni degli algoritmi. E anche l’afrofemminismo rivendica l’intelligenza artificiale come spazio di autodeterminazione con assistenti come AfroféminasGpt, addestrati su saperi e voci nere.

“Dimostrano che possiamo organizzarci per usare l’IA per il bene comune, condividere dati in modo collettivo e sviluppare soluzioni centrate sui bisogni reali – sottolinea Bartoletti – Ma il punto centrale resta il potere. La questione femminista nell’IA è una questione di potere: le donne devono averne di più. Non ai margini, ma ai vertici delle aziende e nei luoghi dove si decide la politica tecnologica. Serve diversità nei luoghi decisionali, non solo tra chi scrive codice. L’Intelligenza artificiale non è solo tecnologia, è una scelta su come vogliamo trasformare la società”. 
   

FP

Written By Flavio Perrone

Scritto da Flavio Perrone, consulente informatico e appassionato di tecnologia e lifestyle. Con una carriera che abbraccia più di tre decenni, Flavio offre una prospettiva unica e informata su come la tecnologia può migliorare la nostra vita quotidiana.

Related Posts

Impact-Site-Verification: c90fc852-aae7-4b2e-b737-f9de00223cb0