OpenAI Apresenta Plano de Segurança Infantil para Combater Abuso Gerado por IA

OpenAI Unveils Child Safety Blueprint to Combat AI-Generated Abuse

Pontos principais

  • A OpenAI lançou um Plano de Segurança Infantil na terça-feira, visando combater o abuso sexual infantil gerado por IA.
  • O plano foi desenvolvido com a colaboração do Centro Nacional de Crianças Desaparecidas e Exploradas, da Aliança dos Procuradores-Gerais e dos procuradores-gerais Jeff Jackson da Carolina do Norte e Derek Brown de Utah.
  • Três áreas de foco: atualização da legislação, melhoria na notificação às autoridades policiais e salvaguardas integradas nos sistemas de IA.
  • A Fundação Internet Watch relatou mais de 8.000 casos de abuso sexual infantil produzido por IA no primeiro semestre de 2025, um aumento de 14% em relação ao ano anterior.
  • Criminosos utilizam IA para criar imagens explícitas falsas para extorsão financeira e mensagens de grooming.
  • Ações judiciais na Califórnia alegam que o GPT-4o da OpenAI contribuiu para quatro suicídios de jovens e três casos de delírios graves.
  • A OpenAI já havia implementado medidas para bloquear conteúdo inapropriado para usuários com menos de 18 anos e desencorajar conselhos de autolesão.
  • No início deste ano, a OpenAI lançou um plano de segurança para adolescentes na Índia.

A OpenAI anunciou um novo Plano de Segurança Infantil na terça-feira, visando combater o aumento do abuso sexual infantil gerado por IA. Desenvolvido com o Centro Nacional de Crianças Desaparecidas e Exploradas e vários procuradores-gerais estaduais, o plano se concentra em detecção mais rápida, melhoria na notificação às autoridades policiais e salvaguardas integradas nos sistemas de IA.

San Francisco – A OpenAI lançou um Plano de Segurança Infantil na terça-feira, sinalizando uma resposta direta ao crescente surto de exploração sexual infantil habilitada por IA. A iniciativa, criada com a colaboração do Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC), da Aliança dos Procuradores-Gerais e dos procuradores-gerais Jeff Jackson da Carolina do Norte e Derek Brown de Utah, se concentra em três pilares: atualização da legislação para abranger o abuso gerado por IA, melhoria nos canais de notificação às autoridades policiais e incorporação de salvaguardas preventivas nos modelos da empresa.

O plano chega em meio a estatísticas alarmantes da Fundação Internet Watch (IWF). No primeiro semestre de 2025, a IWF registrou mais de 8.000 casos de conteúdo de abuso sexual infantil produzido por IA, um aumento de 14% em relação ao ano anterior. Criminosos estão utilizando ferramentas geradoras para fabricar imagens explícitas para extorsão financeira e criar mensagens de grooming convincentes, ampliando o cenário de ameaças para menores.

A última iniciativa da OpenAI se baseia em salvaguardas anteriores que proibiam a geração de conteúdo inapropriado para usuários com menos de 18 anos, proibiam o incentivo ao autolesão e bloqueavam conselhos que pudessem ajudar jovens a esconder comportamentos inseguros. No início deste ano, a empresa também lançou um plano de segurança para adolescentes na Índia, destacando uma estratégia global mais ampla.

O momento do anúncio é notável. Formuladores de políticas, educadores e defensores da segurança infantil intensificaram a vigilância das plataformas de IA após uma série de incidentes trágicos em que jovens morreram por suicídio após interações prolongadas com chatbots. Em novembro do ano passado, o Centro de Direito das Vítimas de Mídia Social e o Projeto de Justiça Tecnológica apresentaram sete ações judiciais nos tribunais estaduais da Califórnia. As ações alegam que a OpenAI lançou o GPT-4o antes que estivesse pronto e que os recursos manipuladores psicologicamente do modelo contribuíram para quatro suicídios e três casos de delírios graves e ameaçadores à vida.

Em resposta, a OpenAI afirma que o novo plano acelerará a identificação de material ilícito, garantirá que a inteligência ativa chegue aos investigadores prontamente e dotará os parceiros da aplicação da lei com mecanismos de notificação mais claros. Ao incorporar salvaguardas diretamente nos sistemas de IA, a empresa espera interceptar conteúdo prejudicial antes que ele chegue aos usuários finais.

Observadores da indústria acompanharão como os legisladores incorporarão as recomendações do plano nas leis de proteção infantil existentes. A colaboração com os procuradores-gerais estaduais sugere uma disposição para moldar políticas, mas a eficácia das atualizações legais propostas permanece por ser testada nos tribunais.

#OpenAI#segurança infantil#abuso gerado por IA#legislação#NCMEC#política de IA#proteção infantil#GPT-4o#processos judiciais#ética de IA

Também disponível em:

OpenAI Apresenta Plano de Segurança Infantil para Combater Abuso Gerado por IA | AI News