Sora de OpenAI plantea preocupaciones sobre la detección de deepfakes y la adopción de credenciales de contenido

Puntos clave
- La herramienta de generación de videos de OpenAI, Sora, puede generar videos de deepfakes realistas de figuras públicas y personajes con derechos de autor.
- Sora incorpora metadatos de credenciales de contenido de C2PA, pero las etiquetas no son visibles para la mayoría de los usuarios.
- Las plataformas sociales como Meta, TikTok, YouTube y X proporcionan etiquetado visible limitado o nulo para el contenido generado por IA.
- Los metadatos pueden ser eliminados o ignorados, reduciendo su eficacia como herramienta de detección.
- Los expertos recomiendan combinar metadatos, marcas de agua y detección basada en inferencia para una mejor protección.
- Líderes de la industria como Adobe están presionando para una adopción más amplia de C2PA en todo el ecosistema de contenido.
- Las propuestas legislativas como la Ley de Derechos Antimpersonación Federal (FAIR Act) y la Ley de Prevención del Abuso de Replicas Digitales (PADRA) buscan proteger contra las impersonaciones de IA no autorizadas.
La herramienta de generación de videos de OpenAI, Sora, puede producir videos de deepfakes realistas de figuras públicas y personajes con derechos de autor, lo que expone las lagunas en los sistemas actuales de detección y etiquetado. Aunque la plataforma incorpora credenciales de contenido de la Coalición para la Proveniencia y Autenticidad de Contenido (C2PA), estas etiquetas de metadatos no son visibles para la mayoría de los usuarios y a menudo se eliminan antes de compartir en las redes sociales.
Antecedentes y capacidades de Sora
La herramienta de generación de videos de OpenAI, Sora, un servicio impulsado por inteligencia artificial, crea videos muy realistas que pueden representar a individuos bien conocidos y personajes con derechos de autor. La salida de la herramienta es lo suficientemente convincente como para generar preocupaciones sobre su posible uso indebido para la desinformación, el acoso y otros fines perjudiciales.
Credenciales de contenido incorporadas
Sora incorpora automáticamente metadatos de la Coalición para la Proveniencia y Autenticidad de Contenido (C2PA), también conocidos como credenciales de contenido. Estos datos invisibles registran detalles sobre cómo y cuándo se creó un video, proporcionando un medio técnico para rastrear su origen.
Visibilidad y eficacia de las etiquetas
A pesar de la presencia de metadatos de C2PA, la mayoría de las plataformas sociales no muestran esta información a los usuarios finales. Instagram y Facebook de Meta han experimentado con pequeñas etiquetas "Información de IA", pero estas a menudo están ocultas o eliminadas. TikTok, YouTube y X tienen etiquetado visible mínimo o nulo para el contenido generado por IA, lo que hace difícil para los espectadores reconocer los deepfakes.
Desafíos con la dependencia de metadatos
Los expertos señalan que confiar únicamente en metadatos incorporados es problemático. Las credenciales de contenido pueden ser eliminadas o alteradas durante la carga, y el usuario promedio carece de herramientas para inspeccionar los datos ocultos. Además, las plataformas frecuentemente eliminan o ignoran los metadatos, socavando su función de protección pretendida.
Respuestas de la industria y la regulación
Adobe, un defensor líder de C2PA, enfatiza la necesidad de una adopción más amplia en todo el ecosistema de contenido. Empresas como Google, Amazon y Cloudflare han expresado su apoyo, pero aún no han implementado etiquetado visible a gran escala. Mientras tanto, las empresas de detección de IA como Reality Defender enfatizan que se necesitará una combinación de herramientas - metadatos, marcas de agua y detección basada en inferencia - para combatir los deepfakes de manera efectiva.
Llamadas a la acción política
Las partes interesadas están instando a medidas legislativas para abordar el uso indebido de los medios generados por IA. Las propuestas incluyen la Ley de Derechos Antimpersonación Federal (FAIR Act) y la Ley de Prevención del Abuso de Replicas Digitales (PADRA), que proporcionarían salvaguardias legales contra las impersonaciones de IA no autorizadas.
Conclusión
La aparición de Sora resalta una brecha más amplia entre las soluciones técnicas para la proveniencia y la visibilidad práctica de esas soluciones para el público. Sin etiquetado más claro, normas de la industria y políticas de apoyo, el riesgo de videos de IA generados que engañan sigue siendo significativo.