Agencias de talentos de Hollywood cuestionan el generador de videos de IA Sora 2 de OpenAI

Puntos clave
- El generador de videos de IA Sora 2 de OpenAI enfrenta críticas de importantes agencias de talentos de Hollywood.
- Creative Artists Agency advierte que la herramienta amenaza los derechos de semejanza y compensación de los intérpretes.
- La función Cameo, que permite a los usuarios insertar semejanzas de celebridades en videos de IA, es un punto focal de preocupación.
- OpenAI dice que se requiere permiso de las figuras públicas a través de un Cameo verificado; de lo contrario, el sistema bloquea el uso.
- Los albaceas de figuras públicas fallecidas pueden solicitar la eliminación de contenido generado por IA que las presente.
- Otras agencias y la Asociación de la Industria Cinematográfica también han llamado a salvaguardas más estrictas.
- El conflicto subraya la colisión entre la innovación rápida de IA y los estándares de licencia de la industria del entretenimiento
El nuevo herramienta de video de IA Sora 2 de OpenAI ha generado una confrontación pública con importantes agencias de talentos de Hollywood. Agencias como Creative Artists Agency argumentan que la tecnología amenaza los derechos de semejanza y compensación de los intérpretes, especialmente a través de su función Cameo que puede colocar a una celebridad en clips generados por IA. OpenAI ha respondido describiendo salvaguardas, incluyendo requisitos de permiso para figuras públicas y un proceso para que los albaceas soliciten la eliminación de personas fallecidas.
Agencias de talentos condenan Sora 2
El generador de videos de IA Sora 2 de OpenAI ha recibido críticas severas de las principales agencias de talentos de Hollywood. Creative Artists Agency emitió un comunicado advirtiendo que la herramienta pone en peligro la propiedad intelectual y la compensación de sus clientes. La agencia destacó la función Cameo, que permite a los usuarios insertar la semejanza y la voz de una celebridad en videos generados por IA, como un punto de contención particular.
Preocupaciones de la industria sobre semejanza y compensación
Las agencias argumentan que Sora 2 podría permitir la creación de videos que utilicen la imagen o la voz de un intérprete sin permiso, potencialmente evitando los mecanismos tradicionales que garantizan que los creadores sean acreditados y pagados. Plantean el tema como una prueba moral para OpenAI, cuestionando si la empresa respeta los principios de derechos de autor globales y los derechos de escritores, artistas, actores y otros creadores.
Respuesta de OpenAI y salvaguardas propuestas
El liderazgo de OpenAI reconoció las preocupaciones y describió pasos para abordarlas. La empresa dijo que la función Cameo está diseñada para requerir que las figuras públicas suban un Cameo verificado que otorgue permiso explícito para el uso de su semejanza. Si no se proporciona tal permiso, el sistema está diseñado para bloquear intentos de insertar a esa persona en contenido generado. Para las figuras públicas fallecidas, OpenAI declaró que los albaceas pueden solicitar la eliminación de cualquier material generado, y la empresa honrará esas solicitudes.
Reacción más amplia de la industria
Otras agencias de talentos, incluyendo William Morris Endeavor y United Talent Agency, han emitido declaraciones similares, instando a OpenAI a eliminar a sus clientes de la plataforma. La Asociación de la Industria Cinematográfica también advirtió que OpenAI es responsable de prevenir violaciones de derechos de autor. El conflicto subraya la tensión entre el enfoque de startup de IA, que a menudo itera sobre errores, y el enfoque metódico de la industria del entretenimiento en licencias, consentimiento y crédito antes de que se lance cualquier contenido.
Implicaciones para el futuro de las herramientas de video de IA
El conflicto puede moldear cómo las aplicaciones de video de IA para consumidores manejan los derechos de los creadores en el futuro. Mientras que los controles propuestos por OpenAI tienen como objetivo dar a las personas el control sobre su semejanza digital, los críticos argumentan que la confianza en el registro propio puede no ser suficiente para proteger contra el uso indebido. El resultado de este conflicto podría sentar precedentes para modelos de compensación, marcos de permiso y la integración más amplia de los medios generados por IA en el ecosistema del entretenimiento.