OpenAI Apresenta Plano de Segurança Infantil com Grupos de Defesa e Procuradores-Gerais Estaduais

Pontos principais
- A OpenAI lançou uma estrutura de política de segurança infantil desenvolvida com a Thorn, o NCMEC e a Attorney General Alliance.
- O plano defende que todos os 50 estados e o Distrito de Columbia criminalizem o material de abuso sexual infantil gerado por IA.
- As recomendações incluem salvaguardas legais mais fortes, estatutos de deepfakes atualizados e regras de responsabilidade mais claras.
- Melhorias técnicas se concentram em guardrails mais apertados e novas ferramentas para detectar conteúdo ilícito gerado por IA.
- Pipeline de relatórios mais rápidos para o National Center for Missing and Exploited Children são enfatizados.
- A iniciativa segue processos de alto perfil e decisões judiciais contra a Meta e o Google por proteção inadequada de jovens.
- O incidente recente do xAI Grok, que produziu milhões de imagens sexuais, destaca a urgência das medidas.
A OpenAI lançou uma estrutura de política abrangente visando proteger menores de conteúdo prejudicial de IA. Desenvolvida com os defensores da segurança infantil Thorn e o National Center for Missing and Exploited Children, bem como a força-tarefa de IA da Attorney General Alliance, o plano recomenda salvaguardas legais mais fortes, guardrails técnicos atualizados e mecanismos de relatório mais rápidos.
OpenAI anunciou na quarta-feira um novo plano de política que visa um dos desafios mais prementes da era da IA gerativa: proteger as crianças de conteúdo ilícito e prejudicial. A empresa disse que o plano foi elaborado em conjunto com a organização sem fins lucrativos de segurança infantil Thorn, o National Center for Missing and Exploited Children e a força-tarefa de IA da Attorney General Alliance, liderada pelos procuradores-gerais Jeff Jackson, da Carolina do Norte, e Derek Brown, de Utah.
O documento descreve uma série de recomendações projetadas para reforçar as leis existentes e aumentar as salvaguardas técnicas. A OpenAI já emprega guardrails que bloqueiam solicitações ilegais ou abusivas, mas a empresa reconhece que usuários determinados às vezes podem contornar essas proteções. Casos recentes de tribunal envolvendo a Meta e o Google, nos quais os tribunais consideraram as empresas negligentes por não protegerem os jovens usuários, intensificaram a pressão sobre os desenvolvedores de IA para demonstrarem medidas de segurança concretas.
Um dos focos do plano é a luta contra o material de abuso sexual infantil (CSAM). Embora o CSAM preceda a IA, a tecnologia acelerou a criação e distribuição desse conteúdo. O plano cita um incidente recente envolvendo o xAI de Elon Musk, onde o modelo Grok gerou cerca de 3 milhões de imagens sexuais em 11 dias, incluindo 23.000 representações de crianças. Esse episódio gerou processos de vítimas adolescentes e destacou a necessidade de ferramentas de detecção mais robustas.
A OpenAI e seus parceiros recomendam atualizar estatutos estaduais que governam os deepfakes e o CSAM gerado por IA. De acordo com um relatório de 2025, 45 estados já criminalizaram o CSAM criado por IA; o plano insta os estados restantes, mais o Distrito de Columbia, a adotar leis semelhantes. Ele também defende regras de responsabilidade mais claras para que as agências de aplicação da lei possam processar os infractores, mesmo quando as plataformas de IA bloqueiam a criação de material ilegal.
Melhorias técnicas formam outro pilar da estratégia. A empresa propõe aprimorar os guardrails existentes e desenvolver novas ferramentas de detecção capazes de distinguir imagens geradas por IA de fotos autênticas – uma tarefa dificultada pelo realismo dos modelos modernos. Pipeline de relatórios mais rápidos, especialmente aqueles que canalizam incidentes para o National Center for Missing and Exploited Children, também são destacados como essenciais para uma resposta rápida.
Especialistas em política observam que a coordenação entre as empresas de tecnologia, os governos estaduais e federais, os órgãos de aplicação da lei e os grupos de defesa pode aumentar as chances de sucesso. No entanto, eles advertiram que regular os modelos de IA permanece um desafio contínuo, e a eficácia de quaisquer novas regras dependerá do cumprimento consistente e da conformidade da indústria.
O plano chega num momento em que a legislação tem lutado para acompanhar a evolução rápida da IA. A Lei Take-It-Down, assinada em 2025, permanece uma das poucas medidas federais que abordam especificamente a imagem íntima não consensual, incluindo os deepfakes gerados por IA. O plano da OpenAI busca complementar essas leis preenchendo lacunas no nível estadual e fornecendo uma estrada técnica para as empresas seguirem.
Ao apresentar um conjunto claro de recomendações, a OpenAI espera demonstrar uma postura proativa em relação à segurança infantil e evitar as armadilhas que têm atingido outros gigantes da tecnologia. Se as reformas legais e técnicas propostas serão adotadas rapidamente permanece por ser visto, mas o compromisso público da empresa marca uma mudança notável em direção ao desenvolvimento de IA mais responsável.