Il Paradosso dell’Intelligenza Artificiale: Chatbot Incapaci di Riconoscere Video Generati con la Stessa IA
Una recente analisi condotta da NewsGuard, una piattaforma specializzata nel monitoraggio della disinformazione online, ha portato alla luce un paradosso interessante nell’ambito dell’intelligenza artificiale. I risultati dei test hanno mostrato che i chatbot, strumenti progettati per assistere e comunicare con gli utenti, non sono in grado di riconoscere i video generati utilizzando la stessa tecnologia di intelligenza artificiale.
I test sono stati condotti su tre piattaforme note: Grok di xAI, ChatGpt di OpenAI e Gemini di Google. I risultati hanno rivelato che, nel 78-95% dei casi, i modelli di chatbot non sono riusciti a identificare i video generati con l’IA come tali. Questa analisi è stata possibile grazie all’utilizzo di Sora, uno strumento di OpenAI che crea clip realistici partendo da semplici descrizioni testuali, note come “prompt”.
I video prodotti con Sora sono stati sottoposti ai tre chatbot, che non hanno quasi mai identificato i video generati con l’IA di Sora, privi di watermark, come falsi. Il tasso di errore è risultato essere del 95% per Grok, del 92,5% per ChatGpt e del 78% per Gemini. Il watermark è una filigrana che identifica immagini, video e testi generati con l’IA e traccia la proprietà intellettuale.
Particolarmente significativo è il tasso di errore di ChatGpt, che raggiunge il 92,5%. Questo risultato è ancora più sorprendente considerando che ChatGpt fa capo alla stessa società che ha lanciato Sora, ovvero OpenAI. In un esempio fornito da NewsGuard, ChatGpt e Gemini non hanno riconosciuto come falso un video di Sora senza filigrana che mostrava un presunto agente dell’Ice degli Stati Uniti arrestare un bambino immigrato di sei anni. Entrambi i chatbot hanno indicato che l’episodio era coerente o confermato da “fonti giornalistiche” e che sarebbe avvenuto al confine tra Stati Uniti e Messico.
Anche in presenza dei watermark, due dei tre chatbot hanno talvolta commesso errori. Ad esempio, Grok non ha riconosciuto i video come generati dall’IA nel 30% dei casi, mentre ChatGpt ha commesso errori nel 7,5% dei casi.
Riproduzione riservata © Copyright


