OpenAI Registra Aumento nos Relatórios de Exploração Infantil para o NCMEC

OpenAI’s Child Exploitation Reports Increased Sharply This Year

Pontos principais

  • A OpenAI apresentou aproximadamente 75.000 relatórios ao NCMEC no primeiro semestre do ano, um aumento em relação aos menos de 1.000 relatórios do ano anterior.
  • O aumento está alinhado com novas funcionalidades que permitem uploads de imagens e um aumento na atividade dos usuários, especialmente entre os adolescentes.
  • Foram feitos investimentos para aumentar a capacidade da empresa de revisar e agir sobre relatórios.
  • Controles parentais agora permitem que os pais gerenciem configurações de adolescentes, desabilitem o modo de voz, memória e geração de imagens.
  • O sistema pode sinalizar sinais de autolesão e notificar os pais ou as autoridades quando necessário.
  • Procuradores-gerais dos estados e agências federais intensificaram a vigilância das plataformas de IA para a segurança infantil.
  • A OpenAI lançou um Plano de Segurança para Adolescentes que delineia esforços contínuos de detecção e relatório de CSAM.
  • Relatórios futuros incluirão novos produtos, como o aplicativo de geração de vídeo Sora.

A OpenAI divulgou que enviou aproximadamente 75.000 relatórios para o National Center for Missing & Exploited Children durante o primeiro semestre do ano, um aumento dramático em relação aos menos de 1.000 relatórios apresentados no mesmo período do ano anterior. O aumento coincide com a implantação de novas funcionalidades de produtos que permitem uploads de imagens e um aumento na atividade dos usuários, especialmente entre os adolescentes.

Aumento Significativo nos Relatórios

A OpenAI anunciou que enviou aproximadamente 75.000 relatórios para o National Center for Missing & Exploited Children (NCMEC) nos primeiros seis meses do ano atual. Esse número contrasta fortemente com os aproximadamente 950 relatórios que a empresa apresentou durante o mesmo período do ano anterior. O número de relatórios está intimamente relacionado à quantidade de conteúdo envolvido, com 74.500 peças de material vinculadas aos relatórios.

Fatores que Impulsionam o Aumento

A empresa atribuiu o aumento a várias mudanças operacionais. Perto do final do ano anterior, a OpenAI investiu na expansão de sua capacidade de revisar e agir sobre relatórios, preparando-se para o crescimento contínuo dos usuários. Novas superfícies de produtos que permitem uploads de imagens e a crescente popularidade das ofertas da OpenAI, incluindo o aplicativo ChatGPT, também contribuíram para volumes de relatórios mais altos. A OpenAI observou que a plataforma agora suporta uploads de arquivos, incluindo imagens, e que o acesso à API expande a gama de conteúdo que os usuários podem gerar.

Melhorias de Segurança e Controles Parentais

Em resposta ao aumento da vigilância, a OpenAI lançou uma série de ferramentas focadas na segurança. Atualizações recentes do ChatGPT introduziram controles parentais que permitem que os pais vinculem contas, ajustem configurações como modo de voz, memória e geração de imagens, e optem por seus adolescentes serem excluídos do treinamento de modelos. O sistema também pode sinalizar indicadores de autolesão e, se necessário, notificar os pais ou as autoridades quando uma ameaça iminente for detectada. Essas medidas fazem parte dos esforços mais amplos da empresa para fornecer às famílias ferramentas para gerenciar a interação dos adolescentes com a IA.

Contexto Regulatório e Legislativo

O aumento nos relatórios da OpenAI ocorre em meio a uma atenção regulatória crescente. Uma coalizão de procuradores-gerais dos estados enviou uma carta conjunta a várias empresas de IA, alertando sobre o uso da autoridade para proteger as crianças de produtos de IA predatórios. O Comitê Judiciário do Senado dos EUA realizou uma audiência sobre danos causados por chatbots de IA, e a Comissão Federal de Comércio lançou um estudo de mercado que inclui perguntas sobre a mitigação de impactos negativos nas crianças. A OpenAI também se envolveu com o Departamento de Justiça da Califórnia, concordando em continuar a tomar medidas para mitigar riscos para os adolescentes e outros usuários.

Compromissos Futuros

A OpenAI lançou um Plano de Segurança para Adolescentes que delineia melhorias contínuas na detecção de material de abuso sexual infantil (CSAM) e no relatório de instâncias confirmadas para autoridades como o NCMEC. A empresa enfatizou que relata todas as instâncias de CSAM, incluindo uploads e solicitações, em todos os seus serviços. Embora os dados recentes ainda não incluam relatórios relacionados ao aplicativo de geração de vídeo Sora, recentemente lançado, a OpenAI indicou que seus protocolos de relatório se estenderão a novas linhas de produtos à medida que elas se tornem operacionais.

No geral, o aumento dramático nos relatórios do NCMEC reflete tanto a expansão da base de usuários da OpenAI quanto um esforço concertado para melhorar a infraestrutura de segurança, posicionando a empresa para abordar preocupações de proteção infantil em um cenário regulatório em evolução.

#OpenAI#NCMEC#material de abuso sexual infantil#CSAM#segurança de IA#ChatGPT#segurança para adolescentes#controles parentais#scrutínio regulatório#FTC#Comitê Judiciário do Senado

Também disponível em: