O Aplicativo de Deepfake Sora da OpenAI Desperta Preocupações com a Confiança e a Desinformação

Deepfake Videos Are More Realistic Than Ever. Here's How to Spot if a Video Is Real or AI

Pontos principais

  • O Sora pode inserir qualquer semelhança em vídeos gerados por IA via sua função "cameo".
  • Os vídeos exportados carregam uma marca d'água em movimento e metadados C2PA que os rotulam como gerados por IA.
  • As marcas d'água podem ser removidas e os metadados alterados, limitando sua confiabilidade.
  • As plataformas sociais estão adicionando etiquetas de conteúdo em IA, mas a divulgação do criador permanece como o indicador mais confiável.
  • Especialistas alertam que a criação fácil de deepfakes realistas pode alimentar a desinformação e ameaçar figuras públicas.

O aplicativo de vídeo em AI da OpenAI, Sora, permite que os usuários criem vídeos realistas com recursos como a função "cameo" que insere a semelhança de qualquer pessoa em cenas geradas por IA. Embora o aplicativo inclua salvaguardas como uma marca d'água e metadados C2PA, especialistas alertam que o acesso fácil a deepfakes de alta qualidade pode alimentar a desinformação e colocar figuras públicas em risco.

O que Sora Faz

O Sora da OpenAI é um gerador de vídeos em AI que produz cliques de alta resolução com áudio sincronizado. Uma função destacada chamada "cameo" permite que os usuários coloquem a semelhança de qualquer pessoa em virtualmente qualquer cena, resultando em vídeos que parecem surpreendentemente realistas.

Salvaguardas Incorporadas

Cada vídeo exportado do aplicativo Sora para iOS inclui uma marca d'água de nuvem branca em movimento. Além disso, os vídeos carregam metadados C2PA que afirmam que o conteúdo foi "emitido pela OpenAI" e o flagram como gerado por IA. Os usuários podem verificar essas informações com a ferramenta de verificação da Content Authenticity Initiative.

Desafios na Detecção

Embora as marcas d'água e os metadados forneçam pistas, eles não são infalíveis. As marcas d'água podem ser removidas com aplicativos especializados, e os metadados podem ser alterados ou removidos quando os vídeos são processados por meio de ferramentas de terceiros. Outros geradores de vídeos em AI, como o Midjourney, não incorporam os mesmos sinais de detecção, tornando mais difícil identificar suas saídas.

Respostas das Plataformas

As redes sociais estão introduzindo seus próprios sistemas de rotulagem. As plataformas da Meta, TikTok e YouTube têm políticas para flagrar conteúdo gerado por IA, embora as etiquetas não sejam garantidas para capturar cada instância. A divulgação mais confiável ainda vem do criador, que pode adicionar uma etiqueta ou legenda indicando a origem em AI do vídeo.

Preocupações da Indústria

Especialistas destacam o risco de que a facilidade de uso do Sora possa permitir a propagação rápida de deepfakes perigosos e desinformação. Figuras públicas e celebridades são especialmente vulneráveis, levando grupos como o SAG-AFTRA a pressionar a OpenAI por guardrails mais fortes.

Conselhos Práticos para os Usuários

Para avaliar a autenticidade de um vídeo, os espectadores devem procurar a marca d'água em movimento do aplicativo Sora, verificar os metadados incorporados com a ferramenta C2PA e permanecer céticos em relação ao conteúdo que parece irreal. Prestar atenção a glitches visuais - como texto distorcido, objetos desaparecidos ou movimento que defie a física - também pode ajudar a sinalizar a mídia sintética.

#OpenAI#Sora#deepfake#vídeo em AI#autenticidade de conteúdo#C2PA#marca d'água#desinformação#SAG-AFTRA#mídia digital

Também disponível em: