Sora Adiciona Controles de Usuário para Aparições de Vídeo Geradas por IA

Pontos principais
- Sora now offers controls to limit AI cameo appearances in videos.
- Users can block political content, specific language, or certain visual contexts.
- Customization includes optional visual elements like specific hats.
- Updates are part of broader efforts to stabilize the platform.
- Critics warn that past AI tools have been bypassed for misuse.
- OpenAI is working to improve the existing watermark protection.
- The company pledges further enhancements to user control features.
O aplicativo Sora, da OpenAI, descrito como um "TikTok para deepfakes", agora permite que os usuários limitem como as versões geradas por IA deles mesmos aparecem em vídeos. A atualização introduz preferências que podem bloquear aparições em conteúdo político, restringir linguagem específica ou prevenir contextos visuais específicos. A OpenAI afirma que as mudanças são parte de atualizações mais amplas de fim de semana destinadas a estabilizar a plataforma e abordar preocupações de segurança. Embora as novas ferramentas deem aos criadores mais controle sobre suas semelhanças digitais, críticos observam que ferramentas de IA anteriores foram contornadas e a marca d\'água permanece fraca. A OpenAI promete refinamentos adicionais.
Controles de Usuário Ampliados
A OpenAI lançou um conjunto de controles para seu aplicativo Sora, que ela compara a um "TikTok para deepfakes". Os novos recursos permitem que os usuários ditam como as versões geradas por IA deles mesmos - referidas como "aparições" - podem ser usadas em vídeos cur!os. Os usuários agora podem prevenir que seu duplo de IA apareça em vídeos políticos, bloquear certas palavras de serem faladas ou impedir que a semelhança apareça em cenários visuais específicos, como perto de um condimento específico.
Opções de Personalização
A plataforma também permite preferências mais divertidas. Por exemplo, um usuário poderia exigir que seu eu de IA use um chapéu específico em todos os vídeos. Essas configurações visam dar aos indivíduos mais controle sobre como suas representações digitais são apresentadas.
Esforços de Segurança e Estabilidade
A atualização de controle é parte de um lote mais amplo de mudanças de fim de semana destinadas a estabilizar o Sora e gerenciar o influxo de conteúdo gerado por IA que a OpenAI chama de "slop". A equipe da OpenAI indicou que a empresa está trabalhando para melhorar a marca d\'água existente, que alguns usuários já encontraram maneiras de contornar.
Preocupações em Curso
Críticos observam que ferramentas de IA anteriores, como o ChatGPT e o Claude, foram exploradas para conselhos ilícitos, sugerindo que atores determinados podem encontrar maneiras de contornar as novas salvaguardas do Sora. A plataforma já enfrentou desafios com usuários contornando sua marca d\'água, levantando questões sobre a robustez das proteções atuais.
Direções Futuras
A equipe da OpenAI afirma que a empresa continuará a "subir a colina" para tornar as restrições mais robustas e adicionará maneiras adicionais para os usuários permanecerem no controle. O lançamento reflete a resposta da OpenAI às preocupações dos usuários, enquanto reconhece que a luta contra o uso indevido é contínua.