OpenAI Refuerza Salvaguardas para Semejanzas Generadas por IA Después de Preocupaciones de Actores

Puntos clave
- Actores y SAG-AFTRA expresaron preocupaciones sobre videos generados por IA que utilizan semejanzas reales.
- Bryan Cranston apareció en videos no autorizados de Sora 2, lo que provocó una respuesta.
- OpenAI anunció que ha "fortalecido las salvaguardas" alrededor de su política de semejanza y voz.
- La empresa expresó arrepentimiento por las generaciones no intencionadas y revisará las quejas de manera expeditiva.
- Las agencias de talentos United Talent Agency, Asociación de Agentes de Talentos y Creative Artists Agency firmaron la declaración conjunta.
- Cranston agradeció a OpenAI por las salvaguardas mejoradas.
- SAG-AFTRA llamó a la Ley NO FAKES para proteger a los intérpretes del mal uso de la tecnología de replicación.
- OpenAI cambió de un modelo de optar por salir a un modelo de optar por entrar más granular para los titulares de derechos.
Actores, agencias de talentos y SAG-AFTRA han expresado preocupaciones sobre videos generados por IA que utilizan semejanzas de personas reales. OpenAI ha anunciado que ha "fortalecido las salvaguardas" alrededor de su política de semejanza y voz después de que aparecieron videos no autorizados de Bryan Cranston en Sora 2.
Rechazo de la Industria a las Semejanzas Generadas por IA
Actores, estudios, agentes y el Sindicato de Actores de Pantalla - Federación Estadounidense de Artistas de Radio y Televisión (SAG-AFTRA) han expresado alarma sobre el uso de semejanzas de personas reales en videos generados por la herramienta Sora 2 de OpenAI. La controversia se intensificó después de que surgieron videos que presentaban al actor Bryan Cranston, incluido uno que lo mostraba tomando una selfie con Michael Jackson.
Declaración Conjunta Anuncia Salvaguardas Fortalecidas
En respuesta, OpenAI, Cranston, SAG-AFTRA y varias agencias de talentos emitieron una declaración conjunta. La declaración confirmó que OpenAI ha "fortalecido las salvaguardas" alrededor de su política de semejanza y voz. OpenAI también "expresó arrepentimiento por estas generaciones no intencionadas" y prometió "revisar expeditivamente" las quejas sobre violaciones de la política.
Compromiso con el Control del Artista
La empresa reiteró que todos los artistas, intérpretes y personas tendrán el derecho de determinar cómo y si pueden ser simulados. OpenAI indicó que proporcionará un control más granular para los titulares de derechos, alejándose del enfoque de optar por salir hacia un modelo de optar por entrar con salvaguardas adicionales.
Apooyo de las Agencias de Talentos
La declaración llevaba las firmas de United Talent Agency, la Asociación de Agentes de Talentos y Creative Artists Agency. Estas agencias habían criticado anteriormente la falta de protecciones de OpenAI para los artistas y ahora respaldan las nuevas salvaguardas anunciadas.
Respuesta de Cranston y Llamadas Legislativas
Bryan Cranston expresó gratitud por los cambios en la política de OpenAI, señalando que está "agradecido a OpenAI por su política y por mejorar sus salvaguardas". El presidente de SAG-AFTRA, Sean Astin, agregó que los intérpretes necesitan protección legal contra la "apropiación masiva por tecnología de replicación" y destacó la propuesta de la Ley de Fomento de Originales, Fomento de Arte y Seguridad en el Entretenimiento, también conocida como la Ley NO FAKES.
Dirección Futura para Sora
OpenAI lanzó originalmente Sora 2 con una política de optar por salir para los titulares de derechos de autor, pero cambió de rumbo después de la indignación pública y los videos polémicos, como un SpongeBob con tema nazi. La empresa ahora promete dar a los titulares de derechos un control más granular, alineándose con el modelo de optar por entrar para la semejanza mientras agrega controles adicionales.