La aplicación Sora de OpenAI impulsa el auge de los videos generados por IA y las preocupaciones sobre los deepfakes

Puntos clave
- La aplicación Sora de OpenAI crea videos generados por IA para una fuente de alimentación similar a TikTok.
- Cada video de Sora incluye una marca de agua en movimiento con un logotipo blanco de nube.
- Los videos incrustan metadatos C2PA que identifican a OpenAI como el emisor.
- Las plataformas sociales están agregando etiquetas de contenido de IA, pero no son infalibles.
- Los expertos advierten que la tecnología podría aumentar la creación de deepfakes y la desinformación.
- Los usuarios pueden verificar la autenticidad a través de marcas de agua, herramientas de metadatos y divulgaciones del creador.
- La vigilancia y la visualización crítica siguen siendo esenciales para detectar el contenido generado por IA.
La aplicación Sora de OpenAI permite a cualquier persona crear videos realistas generados por IA que aparecen en una plataforma similar a TikTok. Cada video incluye una marca de agua en movimiento con un logotipo blanco de Sora y metadatos C2PA incrustados que revelan su origen de IA. Aunque la herramienta muestra una calidad visual impresionante, los expertos advierten que podría acelerar la difusión de deepfakes y desinformación. Las plataformas sociales están comenzando a etiquetar el contenido de IA, pero se urge a los usuarios a permanecer vigilantes y verificar las marcas de agua, metadatos y divulgaciones para autenticar la veracidad.
La proliferación de video generado por IA
Los generadores de video de inteligencia artificial se han vuelto comunes, produciendo desde deepfakes de celebridades hasta clips de novedad virales. La aplicación Sora de OpenAI, disponible en iOS, agrega una nueva dimensión al ofrecer una fuente de alimentación similar a TikTok donde cada clip es generado por IA.
Las características de transparencia integradas de Sora
Cada video de Sora está marcado automáticamente con una marca de agua en movimiento con un logotipo blanco de nube que rebota alrededor de los bordes del frame. Además, los videos incrustan metadatos de procedencia de contenido de la Coalición para la Provenencia y Autenticidad de Contenido (C2PA). Cuando se ejecutan a través de la herramienta de verificación de la Iniciativa de Autenticidad de Contenido, los metadatos indican que el video fue "emitido por OpenAI" y confirman su origen de IA.
Métodos de detección y etiquetado
Más allá de la marca de agua y los metadatos integrados, las principales plataformas sociales como Meta, TikTok y YouTube están implementando sistemas internos que marcan y etiquetan el contenido generado por IA. Sin embargo, estas etiquetas no son infalibles, y los creadores también pueden agregar sus propias divulgaciones en subtítulos o publicaciones.
Preocupaciones de la industria
Los expertos expresan inquietud sobre la facilidad con la que se pueden producir deepfakes realistas, señalando los riesgos potenciales para las figuras públicas y la difusión más amplia de la desinformación. Aunque OpenAI participa en los esfuerzos de la industria para mejorar la provenencia de contenido, el rápido avance de herramientas como Sora subraya la necesidad de una vigilancia continua entre los usuarios y las plataformas.
Orientación práctica para los usuarios
Para evaluar la autenticidad de un video, los usuarios deben buscar la marca de agua de Sora, examinar los metadatos incrustados con herramientas de verificación y tener en cuenta cualquier etiqueta de IA proporcionada por la plataforma o divulgación del creador. Se recomienda mantener el escepticismo sobre el contenido que se siente "extraño" y verificar los anomalies visuales.