Italiano

Paradosso IA, chatbot non riconoscono i video fatti con l’Intelligenza artificiale

      Paradosso dell’intelligenza artificiale, i chatbot non riconoscono i video fatti con la stessa IA. Lo afferma NewsGuard, la piattaforma che monitora la disinformazione online, che ha testato tre note piattaforme Grok di xAI, ChatGpt di OpenAI e Gemini di Google: nel 78-95% dei casi i modelli non sono riusciti a capirlo.
    L’analisi è stata condotta partendo da video prodotti con Sora, lo strumento di OpenAI che crea clip realistici a partire da semplici descrizioni testuali, i cosiddetti ‘prompt’. I video sono stati sottoposti ai tre chatbot che non hanno quasi mai identificato i video generati con l’IA di Sora, privi di watermark: rispettivamente nel 95%, 92,5% e 78% dei casi. Il watermark è una filigrana che identifica immagini, video e testi generati con l’IA e che traccia anche la proprietà intellettuale.
    Particolarmente significativo il tasso di errore di ChatGpt, il 92,5%, proprio il chatbot che fa capo alla stessa società che ha lanciato Sora, cioè OpenAI. In un esempio fornito da NewGuard, ChatGpt e Gemini non hanno riconosciuto come falso un video di Sora senza filigrana che mostrava un presunto agente dell’Ice degli Stati Uniti arrestare un bambino immigrato di sei anni. In risposta alle richieste, entrambi i chatbot hanno indicato che l’episodio era coerente o confermato da “fonti giornalistiche” e che sarebbe avvenuto al confine tra Stati Uniti e Messico.
    Anche in presenza dei watermark, due dei tre chatbot hanno talvolta commesso errori. Grok ad esempio non ha riconosciuto tali video come generati dall’IA nel 30% dei casi e ChatGpt nel 7,5%. 
   


Riproduzione riservata © Copyright ANSA

Per saperne di più
da Author
I cibi industriali ultra-processati non sono semplicemente alimenti, ma prodotti “altamente ingegnerizzati”,…