El generador de videos de inteligencia artificial Sora de OpenAI plantea preocupaciones sobre los deepfakes

Puntos clave
- Sora es el generador de videos de inteligencia artificial de OpenAI que crea clips de alta resolución desde textos.
- Una marca de agua en movimiento en forma de nube blanca aparece en cada video de Sora descargado desde la aplicación para iOS.
- Los videos incluyen metadatos integrados que identifican a OpenAI como el emisor y marcan la generación de inteligencia artificial.
- La función de "cameo" puede insertar similitudes del mundo real en escenas generadas, planteando preocupaciones sobre los deepfakes.
- Los expertos advierten que Sora podría simplificar la creación de videos sintéticos engañosos o dañinos.
- Las plataformas están probando la etiquetado de contenido de inteligencia artificial, pero las etiquetas aún no son completamente fiables.
- La Iniciativa de Autenticidad de Contenido ofrece una herramienta para verificar los medios generados por Sora a través de los metadatos.
- Se insta a los creadores a revelar la participación de la inteligencia artificial para ayudar a los espectadores a evaluar la autenticidad.
OpenAI ha lanzado Sora, un generador de videos de inteligencia artificial que crea videos de alta resolución y sincronizados desde textos. La herramienta incluye una marca de agua en movimiento, metadatos integrados y una función de "cameo" que puede insertar similitudes del mundo real en escenas generadas. Aunque las capacidades de Sora son elogiadas por su creatividad y facilidad de uso, los expertos advierten que podría simplificar la producción de deepfakes y desinformación.
¿Qué es Sora?
Sora es el generador de videos de inteligencia artificial de OpenAI que convierte textos en videos de alta resolución con audio sincronizado. Lanzado como una aplicación hermana de ChatGPT, Sora ofrece una función de "cameo" que permite a los usuarios colocar caras reconocibles en escenas generadas por inteligencia artificial, produciendo imágenes notablemente realistas.
Características clave y experiencia del usuario
Cada video creado con la aplicación Sora para iOS lleva una marca de agua en movimiento en forma de nube blanca que rebota alrededor de los bordes del clip. El servicio también incorpora credenciales de contenido en los metadatos del archivo, indicando que el video fue emitido por OpenAI y marcándolo como generado por inteligencia artificial. Estas señales integradas están diseñadas para ayudar a los espectadores y plataformas a identificar el origen del contenido.
Riesgos potenciales y preocupaciones de la industria
Los expertos expresan preocupación de que la facilidad de uso de Sora podría reducir la barrera para crear deepfakes, haciendo que sea más simple para cualquier persona producir videos convincentes de figuras públicas o difundir desinformación. Sindicatos como SAG-AFTRA han instado a OpenAI a fortalecer las salvaguardas alrededor de la tecnología.
Herramientas de detección y verificación
La Iniciativa de Autenticidad de Contenido (CAI) proporciona una herramienta de verificación que lee los metadatos integrados y confirma si un video fue generado por Sora. Plataformas como Meta, TikTok y YouTube también están probando sistemas internos que etiquetan publicaciones generadas por inteligencia artificial, aunque estas etiquetas aún no son infalibles.
Prácticas recomendadas para los usuarios
Para evaluar si un video podría ser generado por inteligencia artificial, los usuarios pueden buscar la marca de agua en movimiento de Sora, verificar los metadatos del archivo con el verificador de la CAI y tener en cuenta las etiquetas específicas de la plataforma. Se anima a los creadores a revelar la participación de la inteligencia artificial en los subtítulos o etiquetas, ayudando a la comunidad en general a mantenerse informada.
Equilibrar la innovación y la seguridad
Sora muestra un potencial creativo impresionante, pero también subraya el desafío continuo de distinguir entre medios reales y sintéticos. Mientras que la marca de agua y los metadatos proporcionan señales útiles, pueden ser eliminados o alterados con herramientas de terceros. La vigilancia continua, la etiquetado transparente y los métodos de detección robustos son esenciales a medida que la tecnología de video generada por inteligencia artificial se vuelve más generalizada.