OpenAI Reforça Salvaguardas para Semelhanças Geradas por IA Após Preocupações de Atores

Pontos principais
- Atores e SAG-AFTRA levantaram preocupações sobre vídeos gerados por IA que usam semelhanças reais.
- Bryan Cranston apareceu em vídeos não autorizados do Sora 2, provocando uma resposta.
- OpenAI anunciou que "reforçou as salvaguardas" em torno de sua política de semelhança e voz.
- A empresa expressou arrependimento pelas gerações não intencionais e revisará reclamações rapidamente.
- Agências de talentos United Talent Agency, Association of Talent Agents e Creative Artists Agency co-assinaram a declaração.
- Cranston agradeceu à OpenAI pelas salvaguardas melhoradas.
- SAG-AFTRA pediu a Lei NO FAKES para proteger performers do mau uso da tecnologia de replicação.
- OpenAI mudou de um modelo de opt-out para um modelo de opt-in mais granular para detentores de direitos.
Atores, agências de talentos e SAG-AFTRA expressaram preocupações sobre vídeos gerados por IA que usam semelhanças de pessoas reais. Em uma declaração conjunta, o ator Bryan Cranston, OpenAI, o sindicato e principais agências disseram que OpenAI "reforçou as salvaguardas" em torno de sua política de opt-in para semelhança e voz após vídeos não autorizados de Cranston aparecerem no Sora 2.
Reação da Indústria Contra Semelhanças Geradas por IA
Atores, estúdios, agentes e o Sindicato dos Atores de Cinema e Televisão (SAG-AFTRA) expressaram alarme sobre o uso de semelhanças de pessoas reais em vídeos gerados pela ferramenta Sora 2 da OpenAI. A controvérsia se intensificou após vídeos com o ator Bryan Cranston serem divulgados, incluindo um que o mostrava tirando uma selfie com Michael Jackson.
Declaração Conjunta Anuncia Salvaguardas Reforçadas
Em resposta, OpenAI, Cranston, SAG-AFTRA e várias agências de talentos emitiram uma declaração conjunta. A declaração confirmou que OpenAI "reforçou as salvaguardas" em torno de sua política de opt-in para semelhança e voz. OpenAI também "expressou arrependimento por essas gerações não intencionais" e prometeu "revisar expeditamente" reclamações sobre violações de política.
Compromisso com o Controle do Artista
A empresa reiterou que todos os artistas, performers e indivíduos terão o direito de determinar como e se podem ser simulados. OpenAI indicou que fornecerá um controle mais granular para os detentores de direitos, afastando-se da abordagem de opt-out anterior em direção a um modelo de opt-in com salvaguardas adicionais.
Apoio das Agências de Talentos
A declaração foi co-assinada pela United Talent Agency, Association of Talent Agents e Creative Artists Agency. Essas agências haviam criticado anteriormente a falta de proteções da OpenAI para os artistas e agora endossam as novas salvaguardas anunciadas.
Resposta de Cranston e Chamadas Legislativas
Bryan Cranston expressou gratidão pelas mudanças de política da OpenAI, observando que está "grato à OpenAI por sua política e por melhorar suas salvaguardas". O presidente da SAG-AFTRA, Sean Astin, acrescentou que os performers precisam de proteção legal contra "apropriação maciça por tecnologia de replicação" e destacou a proposta de Lei de Proteção à Originalidade, Fomento à Arte e Segurança do Entretenimento, também conhecida como Lei NO FAKES.
Direção Futura para Sora
OpenAI originalmente lançou o Sora 2 com uma política de opt-out para titulares de direitos autorais, mas reverteu o curso após o clamor público e vídeos controversos, como um tema nazista de SpongeBob. A empresa agora promete dar aos detentores de direitos mais controle granular, alinhando-se com o modelo de opt-in para semelhança enquanto adiciona controles adicionais.