Ferramenta de Vídeo Sora 2 da OpenAI Usada para Criar Conteúdo Perturbador de Crianças Semelhantes em TikTok

People Are Using Sora 2 to Make Disturbing Videos With AI-Generated Kids

Pontos principais

  • A ferramenta de geração de vídeo Sora 2 da OpenAI está sendo usada para criar vídeos realistas com crianças geradas por IA.
  • Esses vídeos frequentemente imitam comerciais de brinquedos e contêm conteúdo provocativo ou satírico.
  • O TikTok e outras plataformas removeram alguns vídeos ofensivos, mas muitos permanecem online.
  • A OpenAI afirma que bloqueia solicitações que explorem menores e toma medidas contra violadores.
  • Grupos de proteção à criança alertam que o conteúdo gerado por IA pode evadir salvaguardas existentes.
  • Legisladores estão considerando leis para criminalizar o material de abuso sexual infantil gerado por IA.
  • Especialistas pedem moderação mais sutil e recursos de segurança integrados em ferramentas de IA.
  • A situação destaca a tensão entre inovação em IA e responsabilidade ética.

A ferramenta de geração de vídeo Sora 2 da OpenAI está sendo usada para produzir vídeos realistas, mas artificiais, que mostram crianças em cenários questionáveis, levantando preocupações sobre a facilidade de contornar salvaguardas existentes.

Vídeos Gerados por IA Difumina a Linha entre Ficção e Exploração

A Sora 2 da OpenAI, um sistema avançado de geração de vídeo, rapidamente se tornou uma ferramenta para criadores que buscam produzir conteúdo visual hiper-realista. Em poucos dias após seu lançamento limitado, alguns usuários começaram a postar vídeos que imitam comerciais de brinquedos, apresentando crianças realistas interagindo com produtos provocativos ou perturbadores. Os vídeos são criados para parecerem anúncios legítimos, mas o assunto varia de brinquedos sugestivos a conjuntos de brinquedos satíricos que aludem a figuras controversas. Porque as crianças retratadas são sintéticas, o conteúdo escapa das definições tradicionais de material ilegal, enquanto ainda levanta alarmes éticos.

Resposta das Plataformas e Desafios de Moderação

Plataformas de mídia social, particularmente o TikTok, tomaram medidas para remover material ofensivo e banir contas que violam políticas de segurança de menores. No entanto, muitos vídeos permanecem acessíveis, destacando a dificuldade de detectar conteúdo gerado por IA sutil que não viola explicitamente regras de conteúdo explícito. A OpenAI relata que seus sistemas são projetados para recusar solicitações que explorem menores, e a empresa afirma que monitora violações de política, revogando o acesso quando necessário. Apesar dessas medidas, criadores encontraram maneiras de contornar salvaguardas, gerando críticas de grupos de defesa das crianças.

Reações da Indústria e Defesa

Kerry Smith, CEO da Internet Watch Foundation, destacou o aumento de material de abuso infantil gerado por IA e pediu que os produtos sejam "seguros por design". O porta-voz da OpenAI, Niko Felix, reiterou a posição da empresa de tolerância zero em relação a conteúdo que prejudica crianças, enfatizando esforços contínuos para melhorar a detecção e aplicação. Especialistas sugerem que uma moderação mais sutil - como restringir certa linguagem ou imagens associadas a conteúdo fetichista - poderia ajudar a fechar lacunas existentes.

Chamadas para Salvaguardas Legislativas e Técnicas

Legisladores em várias jurisdições estão revisando ou promulgando leis que criminalizam a criação e distribuição de material de abuso sexual infantil gerado por IA. Propostas incluem requisitos para que desenvolvedores de IA incorporem mecanismos de proteção que bloqueiem a geração de conteúdo proibido. Grupos de defesa pedem que as plataformas priorizem a segurança das crianças no design do produto, argumentando que, sem salvaguardas proativas, o conteúdo prejudicial continuará a se proliferar apesar de retiradas reativas.

Olhando para o Futuro

A difusão rápida de vídeos gerados pela Sora 2 ilustra o desafio mais amplo de equilibrar capacidades inovadoras de IA com responsabilidade social. À medida que as ferramentas de IA se tornam mais acessíveis, stakeholders em tecnologia, política e setores de proteção à criança devem colaborar para garantir que as salvaguardas evoluam em passos com a tecnologia, protegendo populações vulneráveis de formas emergentes de exploração digital.

#OpenAI#Sora 2#TikTok#Vídeo gerado por IA#Proteção à criança#Moderação de conteúdo#Kerry Smith#Niko Felix#Política de IA#Exploração digital

Também disponível em: