OpenAI Introduce Controles Nuevos para la Función de Cameo de Sora

Puntos clave
- OpenAI agrega restricciones de palabras clave y escenarios a los perfiles de cameo de Sora.
- Los creadores ahora pueden bloquear usos específicos de su cara y voz, como comentarios políticos.
- El marca de agua en los videos de Sora descargados será más visible.
- Expertos legales habían criticado anteriormente el enfoque de optar por salir de OpenAI para el copyright.
- OpenAI está perfeccionando los guardrails de seguridad para reducir los falsos negativos y cerrar brechas.
OpenAI anunció actualizaciones a su aplicación Sora de solo invitación que brindan a los usuarios más control sobre cómo se utilizan sus similitudes en videos generados por IA. Los cambios permiten a los creadores agregar restricciones de palabras clave o escenarios a sus perfiles de cameo y hacer que el marca de agua en los videos descargados sea más visible.
Antecedentes
Sora, la plataforma de medios sociales de solo invitación de OpenAI que combina una feed social con un generador de video de IA, se convirtió rápidamente en un punto focal para las discusiones sobre la tecnología de deepfake y el copyright. La función más popular de la aplicación, llamada "cameo", permite a los usuarios subir un video de su propia cara y voz, que luego se puede colocar en cualquier escenario generado por IA. Los adoptadores tempranos usaron cameo para crear videos realistas de figuras públicas, lo que generó preocupaciones sobre la desinformación y el uso no autorizado de personajes con copyright.
Nuevas Restricciones de Cameo
OpenAI respondió a los comentarios de los usuarios agregando un conjunto de controles que permiten a los propietarios de cameo especificar cómo se puede utilizar su similitud. Además de la opción existente para bloquear todo uso de terceros, los creadores ahora pueden ingresar palabras clave o escenarios restringidos. Por ejemplo, un usuario puede evitar que su cara y voz se utilicen en comentarios políticos u otros contextos sensibles. La empresa también anunció que el marca de agua blanca aplicada a los videos descargados será más prominente, lo que ayuda a los espectadores a identificar el contenido generado por IA.
Contexto Legal
El abogado de propiedad intelectual Robert Rosenberg criticó la postura anterior de OpenAI de que los titulares de derechos necesitaban "optar por salir" del uso de su material con copyright por el modelo, calificándolo de "no iniciado" según la ley de copyright existente. La crítica llegó en medio de batallas legales más amplias, con estudios y editores importantes que demandan a las empresas de IA por reproducir personajes protegidos sin permiso. Los ajustes recientes de OpenAI apuntan a abordar estas preocupaciones al brindar a las personas y los creadores un control más granular sobre el uso de sus similitudes, mientras aún opera bajo las protecciones de la Sección 230 que protegen a las plataformas de la responsabilidad por el contenido generado por el usuario.
Perspectiva Futura
Bill Peebles, jefe de Sora, indicó que la empresa sigue perfeccionando sus guardrails de seguridad. El objetivo es reducir los falsos negativos —instancias en las que se bloquea contenido legítimo por error— mientras se cierran las brechas que podrían ser explotadas para un uso indebido. El enfoque de OpenAI refleja un equilibrio: proporcionar herramientas de IA innovadoras para los creadores mientras se mitiguan los riesgos legales y éticos. La efectividad de estos nuevos controles dependerá de cómo se implementen y si satisfacen tanto a los usuarios individuales como a la comunidad creativa más amplia.