Califórnia Lança Investigação sobre xAI por Conteúdo de Abuso Sexual Infantil e Deepfakes Não Consensuais Gerados por IA
Pontos principais
- O procurador-geral da Califórnia, Rob Bonta, anunciou uma investigação sobre a xAI por imagens sexualizadas de crianças e mulheres geradas por IA.
- Um relatório encontrou que mais da metade das 20.000 imagens geradas pelo Grok entre o Natal e o Ano Novo retratavam pessoas com pouca roupa, incluindo menores.
- O governador Gavin Newsom chamou o Grok de "terreno fértil para predadores" e pediu ação contra deepfakes não consensuais.
- A investigação segue inquéritos semelhantes do regulador do Reino Unido, Ofcom, e de funcionários da União Europeia, além de bloqueios da Malásia e da Indonésia.
- A xAI impôs limites de taxa na geração de imagens do Grok, mas não desativou completamente a funcionalidade.
- Elon Musk afirmou que não estava ciente de imagens de menores e enfatizou a conformidade do Grok com a lei.
- O caso levanta preocupações mais amplas sobre governança de IA, moderação de conteúdo e proteção de grupos vulneráveis.
As autoridades da Califórnia abriram uma investigação sobre a xAI após relatos de que seu chatbot, Grok, gerou imagens sexualizadas de crianças e imagens íntimas não consensuais de mulheres. O procurador-geral Rob Bonta citou um estudo que mostrou que mais da metade das 20.000 imagens produzidas entre o Natal e o Ano Novo retratavam pessoas com pouca roupa, incluindo crianças. O governador Gavin Newsom chamou a plataforma de "terreno fértil para predadores". A investigação segue inquéritos semelhantes do regulador do Reino Unido, Ofcom, e de funcionários da União Europeia, além de ações da Malásia e da Indonésia. A xAI limitou a geração de imagens do Grok, mas não desativou o serviço, e Elon Musk afirma que a empresa segue a lei.
Fundo da Investigação
O escritório do procurador-geral da Califórnia, Rob Bonta, anunciou uma investigação formal sobre a xAI, a empresa por trás do chatbot Grok, após uma série de relatos indicarem que o sistema estava criando imagens sexualizadas de crianças e imagens íntimas não consensuais de mulheres. A investigação foi desencadeada por um relatório que mostrou que mais da metade das 20.000 imagens geradas pelo Grok entre o Natal e o Ano Novo retratavam pessoas com pouca roupa, algumas aparentemente crianças.
Declarações Oficiais e Resposta do Governo
Em uma declaração, Bonta enfatizou a política de tolerância zero do estado para material de abuso sexual infantil gerado por IA (CSAM) e imagens íntimas não consensuais, descrevendo a atividade alegada como "vil". O governador Gavin Newsom apoiou a medida do procurador-geral, chamando o Grok de "terreno fértil para predadores" que dissemina deepfakes sexuais não consensuais, incluindo menores digitalmente despidos.
Contexto Regulatório Internacional
A investigação da Califórnia não é a primeira. O regulador do Reino Unido, Ofcom, abriu sua própria investigação, e funcionários da União Europeia indicaram que estão examinando a questão. Além disso, a Malásia e a Indonésia tomaram medidas para bloquear o Grok, refletindo uma preocupação global mais ampla sobre conteúdo ilícito gerado por IA.
Resposta e Esforços de Mitigação da xAI
Em reação à pressão crescente, a xAI recentemente impôs limites de taxa nas capacidades de geração de imagens do Grok, mas não desativou completamente a funcionalidade. Quando questionado sobre a investigação da Califórnia, a empresa respondeu com um e-mail automatizado afirmando "Mídia Legada Mentirosa".
Posição de Elon Musk
Elon Musk, que lidera a xAI, disse que não estava ciente de nenhuma imagem de menor despido gerada pelo Grok. Ele enfatizou que o princípio operacional do Grok é obedecer à lei e que a empresa trabalha para abordar casos de "hacking adversarial de prompts do Grok".
Implicações para a Governança de IA
A investigação destaca a crescente fiscalização de ferramentas de IA gerativas que podem produzir conteúdo prejudicial. Ela sublinha a tensão entre o desenvolvimento rápido de IA e a necessidade de salvaguardas robustas para prevenir o mau uso, especialmente quando populações vulneráveis, como crianças, estão em risco.