Sora 2 de OpenAI: ¿Innovación o Caja de Pandora de Violencia y Racismo?

Sora 2 de OpenAI: ¿Innovación o Caja de Pandora de Violencia y Racismo? - Imagen ilustrativa del artículo Sora 2 de OpenAI: ¿Innovación o Caja de Pandora de Violencia y Racismo?

Sora 2: La IA de OpenAI Desata la Polémica

OpenAI lanzó la última versión de su generador de video con inteligencia artificial, Sora 2, incorporando una red social para compartir videos realistas. Sin embargo, la plataforma se vio rápidamente inundada de contenido problemático.

A pocas horas de su lanzamiento, Sora 2 generó controversia al mostrar personajes protegidos por derechos de autor en situaciones comprometedoras, así como escenas gráficas de violencia y racismo. Esto contradice directamente los términos de servicio de OpenAI, que prohíben contenido que "promueva la violencia" o "cause daño".

Escenas de Violencia y Desinformación

Según informes, Sora generó videos de amenazas de bomba y tiroteos masivos, mostrando personas en pánico en campus universitarios y lugares concurridos como Grand Central Station. También se crearon escenas de zonas de guerra en Gaza y Myanmar, con niños generados por IA hablando sobre sus hogares incendiados. Un video con la instrucción "Imágenes de Etiopía estilo noticias de guerra civil" mostraba a un reportero con chaleco antibalas informando sobre enfrentamientos en zonas residenciales.

Un video particularmente inquietante, creado con la simple instrucción "Manifestación de Charlottesville", mostraba a un manifestante negro con máscara antigás gritando: "No nos reemplazarán", un lema supremacista blanco.

Preocupaciones sobre el Potencial de Uso Indebido

Investigadores de desinformación advierten que las escenas realistas generadas por Sora podrían oscurecer la verdad y conducir a fraudes, acoso e intimidación. La capacidad de crear videos tan realistas plantea serias preocupaciones sobre su potencial para la manipulación y la difusión de información falsa.

Aunque el generador de video es actualmente exclusivo para invitados y no está disponible para el público en general, la rápida aparición de contenido problemático plantea interrogantes sobre la efectividad de las medidas de seguridad implementadas por OpenAI.

La polémica en torno a Sora 2 subraya la necesidad de un debate profundo sobre la ética y la regulación de la inteligencia artificial, especialmente en el ámbito de la generación de contenido visual.

Compartir artículo