OpenAI Relata Aumento nos Alertas de Exploração Infantil à Medida que a Scrutínio da IA Cresce

Pontos principais
- A OpenAI submeteu cerca de 75.000 relatórios à CyberTipline no primeiro semestre de 2025, contra menos de 1.000 no ano anterior.
- Os relatórios abrangem CSAM encontrado em uploads de usuários, solicitações de modelo e conteúdo gerado em ChatGPT e serviços de API.
- A NCMEC identificou um aumento de 1.325% nos relatórios de CSAM relacionados à IA gerativa entre 2023 e 2024.
- 44 procuradores-gerais dos estados enviaram uma carta conjunta advertindo as empresas de IA a proteger as crianças de produtos de IA predatórios.
- A OpenAI e outras empresas de IA enfrentam processos judiciais alegando que seus chatbots contribuíram para mortes de crianças.
- O Comitê Judiciário do Senado realizou uma audiência sobre danos de chatbots de IA, e a Comissão Federal de Comércio lançou um estudo de mercado sobre bots de acompanhamento de IA.
- Produtos de IA futuros, como a ferramenta de geração de vídeo Sora da OpenAI, ainda não são refletidos nos dados atuais de notificação.
OpenAI divulgou um aumento dramático nos relatórios enviados à CyberTipline do National Center for Missing & Exploited Children, enviando cerca de 75.000 relatórios no primeiro semestre de 2025, em comparação com menos de 1.000 no mesmo período do ano anterior.
Aumento Acentuado nos Relatórios da CyberTipline
OpenAI revelou que no primeiro semestre de 2025 submeteu aproximadamente 75.027 relatórios à CyberTipline do National Center for Missing & Exploited Children (NCMEC). Esse número é quase idêntico ao de peças distintas de conteúdo – cerca de 74.559 – que os relatórios referenciaram. Em contraste, a mesma janela de seis meses em 2024 viu a OpenAI arquivar apenas 947 relatórios que abrangiam cerca de 3.252 peças de conteúdo. Os dados destacam um aumento maciço no volume de material de exploração infantil que a empresa está detectando e encaminhando às autoridades.
Escopo dos Relatórios e Paisagem de Produtos
A política da OpenAI exige a notificação de todos os casos de material de abuso sexual infantil (CSAM) que encontra, seja o material carregado diretamente por um usuário ou gerado por meio de solicitações de modelo. A notificação da empresa abrange seu aplicativo ChatGPT de frente para o consumidor – onde os usuários podem carregar arquivos, incluindo imagens, e receber texto ou imagens gerados –, bem como suas ofertas de API mais amplas que permitem que os desenvolvedores incorporem os modelos em serviços externos. Um produto de geração de vídeo futuro, chamado Sora, foi lançado após o período de notificação e, portanto, não aparece nos atuais números da NCMEC.
IA Gerativa Impulsiona Tendência Mais Ampla
O aumento nos relatórios da OpenAI está alinhado com um padrão maior observado pela NCMEC. A análise do centro indica que os relatórios envolvendo tecnologias de IA gerativa aumentaram cerca de 1.325% entre 2023 e 2024. Embora outros laboratórios de IA importantes, como o Google, tenham publicado suas próprias estatísticas da CyberTipline, eles não desmembraram qual porção desses relatórios está diretamente ligada a saídas de IA gerativa.
Resposta Regulatória e Legislativa
A atividade de notificação aumentada atraiu uma escrutínio intensificado por parte dos formuladores de políticas. Uma coalizão de 44 procuradores-gerais dos estados emitiu uma carta conjunta a várias empresas de IA – incluindo OpenAI, Meta, Character.AI e Google – advertindo que eles exerceriam toda a autoridade disponível para proteger as crianças de "produtos de inteligência artificial predatórios". A OpenAI e a Character.AI também enfrentam processos judiciais alegando que seus chatbots desempenharam um papel nas mortes de menores.
No Senado dos Estados Unidos, o Comitê Judiciário realizou uma audiência para examinar os danos associados a chatbots de IA. Simultaneamente, a Comissão Federal de Comércio lançou um estudo de mercado de bots de acompanhamento de IA, investigando especificamente como as empresas estão mitigando os impactos negativos nas crianças. Essas ações sinalizam um esforço coordenado em níveis federal e estadual para abordar os riscos emergentes impostos pela IA gerativa.
Implicações e Próximos Passos
Os dados sugerem que à medida que as capacidades de IA se expandem, o potencial para uso indevido – incluindo a criação e distribuição de CSAM – também cresce. O compromisso da OpenAI em notificar todos os encontros com tal material reflete um reconhecimento de responsabilidade em toda a indústria. A continuidade do foco regulatório, combinada com a disponibilidade pendente de novas ferramentas como o Sora, provavelmente moldará como os provedores de IA equilibram inovação com salvaguardas de segurança infantil nos meses seguintes.