La aplicación de deepfake Sora de OpenAI genera preocupaciones sobre confianza y desinformación

Puntos clave
- Sora puede insertar cualquier semejanza en videos generados por IA a través de su función "cameo".
- Los videos exportados llevan una marca de agua en movimiento y metadatos C2PA que los marcan como generados por IA.
- Las marcas de agua se pueden eliminar y los metadatos alterados, lo que limita su confiabilidad.
- Las plataformas sociales están agregando etiquetas de contenido de IA, pero la divulgación del creador sigue siendo el indicador más seguro.
- Los expertos advierten que la creación fácil de deepfakes realistas podría alimentar la desinformación y amenazar a figuras públicas.
La herramienta de video de inteligencia artificial de OpenAI, Sora, permite a los usuarios crear videos realistas con funciones como la "cameo" que inserta la semejanza de cualquier persona en escenas generadas por IA. Aunque la aplicación agrega una marca de agua y metadatos C2PA para identificar el contenido como generado por IA, los expertos advierten que el acceso fácil a deepfakes de alta calidad podría alimentar la desinformación y poner en riesgo a figuras públicas.
¿Qué hace Sora?
La herramienta de video de inteligencia artificial de OpenAI, Sora, es un generador de videos de alta resolución con audio sincronizado. Una función destacada llamada "cameo" permite a los usuarios colocar la semejanza de cualquier persona en prácticamente cualquier escena, lo que resulta en videos que parecen sorprendentemente realistas.
Medidas de seguridad integradas
Cada video exportado desde la aplicación Sora para iOS incluye una marca de agua con un logotipo de nube blanca en movimiento. Además, los videos llevan metadatos C2PA que indican que el contenido fue "emitido por OpenAI" y lo marcan como generado por IA. Los usuarios pueden verificar esta información con la herramienta de verificación de la Iniciativa de Autenticidad de Contenido.
Desafíos en la detección
Aunque las marcas de agua y los metadatos proporcionan pistas, no son infalibles. Las marcas de agua se pueden eliminar con aplicaciones especializadas y los metadatos pueden alterarse o eliminarse cuando los videos se procesan a través de herramientas de terceros. Otros generadores de video de IA, como Midjourney, no incrustan las mismas señales de detección, lo que hace más difícil identificar sus salidas.
Respuestas de las plataformas
Las redes sociales están introduciendo sus propios sistemas de etiquetado. Las plataformas de Meta, TikTok y YouTube tienen políticas para marcar el contenido generado por IA, aunque las etiquetas no garantizan detectar todos los casos. La divulgación más confiable sigue viniendo del creador, que puede agregar una etiqueta o subtítulo que indica el origen de IA del video.
Preocupaciones de la industria
Los expertos destacan el riesgo de que la facilidad de uso de Sora pueda habilitar la propagación rápida de deepfakes peligrosos y desinformación. Las figuras públicas y los celebridades son especialmente vulnerables, lo que lleva a grupos como SAG-AFTRA a presionar a OpenAI para que establezca salvaguardas más fuertes.
Consejos prácticos para los usuarios
Para evaluar la autenticidad de un video, los espectadores deben buscar la marca de agua en movimiento de Sora, verificar los metadatos incrustados con la herramienta C2PA y mantenerse escépticos con respecto al contenido que se sienta irreal. Prestar atención a los errores visuales, como texto deformado, objetos desaparecidos o movimiento que defía la física, también puede ayudar a identificar los medios sintéticos.