OpenAI Introduz Controles Novos para Recurso de Aparição da Sora

OpenAI Says It's Giving Sora Users More Control Over How Their Images Are Used

Pontos principais

  • OpenAI adiciona restrições de palavras-chave e cenários aos perfis de aparição da Sora.
  • Criadores agora podem bloquear usos específicos de seu rosto e voz, como comentários políticos.
  • A marca d'água nos vídeos baixados da Sora será mais visível.
  • Especialistas legais haviam criticado anteriormente a abordagem de optar por sair da OpenAI em relação aos direitos autorais.
  • OpenAI está refinando as barreiras de segurança para reduzir falsos negativos e fechar lacunas.

OpenAI anunciou atualizações para o aplicativo Sora, que dão aos usuários mais controle sobre como suas semelhanças são usadas em vídeos gerados por IA. As mudanças permitem que criadores adicionem restrições de palavras-chave ou cenários aos seus perfis de aparição e tornem a marca d'água nos vídeos baixados mais visível.

Contexto

A Sora, plataforma de mídia social de convite da OpenAI que combina uma feed social com um gerador de vídeo de IA, rapidamente se tornou um ponto focal para discussões sobre tecnologia de deepfake e direitos autorais. O recurso mais popular do aplicativo, chamado de "aparição", permite que os usuários façam upload de um vídeo do seu próprio rosto e voz, que pode ser colocado em qualquer cena gerada por IA. Os primeiros adotantes usaram a aparição para criar vídeos realistas de figuras públicas, despertando preocupações sobre desinformação e uso não autorizado de personagens protegidos por direitos autorais.

Novas Restrições de Aparição

A OpenAI respondeu aos feedbacks dos usuários adicionando um conjunto de controles que permitem que os proprietários de aparição especifiquem como sua semelhança pode ser usada. Além da opção existente de bloquear todo uso de terceiros, os criadores agora podem inserir palavras-chave ou cenários restritos. Por exemplo, um usuário pode evitar que seu rosto e voz sejam usados em comentários políticos ou outros contextos sensíveis. A empresa também anunciou que a marca d'água branca aplicada aos vídeos baixados será tornada mais proeminente, ajudando os espectadores a identificar conteúdo gerado por IA.

Contexto Legal

O advogado de propriedade intelectual Robert Rosenberg criticou a postura anterior da OpenAI de que os titulares de direitos precisavam "optar por sair" do uso de material protegido por direitos autorais pelo modelo, chamando-a de "não iniciada" sob a lei de direitos autorais existente. A crítica veio em meio a batalhas legais mais amplas, com grandes estúdios e editoras processando empresas de IA por reproduzir personagens protegidos sem permissão. As ajustes recentes da OpenAI visam abordar essas preocupações, dando aos indivíduos e criadores mais controle granular sobre o uso de suas semelhanças, enquanto ainda operam sob as proteções da Seção 230 que protegem as plataformas de responsabilidade por conteúdo gerado por usuários.

Perspectiva Futura

Bill Peebles, chefe da Sora, indicou que a empresa está continuando a refinar suas barreiras de segurança. O objetivo é reduzir os falsos negativos - instâncias em que o conteúdo legítimo é bloqueado por engano - enquanto fecha lacunas que possam ser exploradas para uso indevido. A abordagem da OpenAI reflete um ato de equilíbrio: fornecendo ferramentas de IA inovadoras para criadores enquanto mitiga riscos legais e éticos. A eficácia desses novos controles dependerá de como eles são implementados e se satisfazem tanto os usuários individuais quanto a comunidade criativa mais ampla.

#OpenAI#Sora#Aparição#Geração de vídeo de IA#Direitos autorais#Propriedade intelectual#Bill Peebles#Desafios legais#Deepfake#Controles de usuário

Também disponível em:

OpenAI Introduz Controles Novos para Recurso de Aparição da Sora | AI News