Abuso di intelligenza artificiale: 3 milioni di immagini esplicite generate su Grok
Tra il 29 dicembre 2025 e il 9 gennaio 2026, l’intelligenza artificiale Grok ha prodotto o modificato circa 3 milioni di immagini che ritraggono persone reali in scene sessualmente esplicite e non consensuali. Di queste, 23.000 hanno come soggetto minori. Questa stima è stata resa nota dall’organizzazione britannica no-profit Center for Countering Digital Hate, che ha analizzato un campione di 20.000 immagini pubblicate su Grok, l’intelligenza artificiale del social X di Elon Musk, in un periodo di 11 giorni.
Il 9 gennaio, xAI ha limitato la possibilità di “spogliare” le persone nelle foto reali con Grok agli utenti di X con un piano in abbonamento. Tuttavia, a seguito delle proteste di governi e istituzioni mondiali, il limite è stato esteso a tutti gli utenti cinque giorni dopo, il 14 gennaio.
I ricercatori dell’organizzazione no-profit hanno poi estrapolato una stima più ampia, basata sui 4,6 milioni di immagini generate dall’IA nello stesso periodo di tempo. “Si tratta di 190 immagini ogni minuto”, spiega una nota dell’organizzazione, “una ogni 41 secondi se consideriamo solo i bambini”. La ricerca definisce le immagini ‘sessualmente esplicite’ quelle con “rappresentazioni fotorealistiche di una persona in posizioni, angolazioni o situazioni sessuali; in intimo, costume da bagno o abiti succinti, senza il dovuto consenso”.
Nelle rilevazioni sono compresi solo i contenuti prodotti a partire da foto reali e non quelli generati da indicazioni testuali. La cifra, per il Center for Countering Digital Hate, potrebbe dunque essere maggiore. “Durante il periodo di 11 giorni”, spiega ancora la no-profit, “Grok ha generato circa 9.900 immagini sessualizzate raffiguranti bambini in forma di cartone animato”, come parte della stima delle 23.000.
Riproduzione riservata © Copyright


