Luta Judicial Sobre Imagens de Abuso Infantil Geradas por IA Destaca Preocupações com Local e Segurança
Pontos principais
- A autora St. Clair busca manter a ação contra a xAI em Nova York, argumentando que um local no Texas seria excessivamente oneroso.
- Goldberg, representando St. Clair, sustenta que a mudança de local poderia negar às vítimas um julgamento justo.
- O caso pode estabelecer um precedente para muitas outras vítimas que consideram ações legais contra a xAI.
- O CCDH estima que Grok gerou 23.000 imagens sexualizadas de crianças em 11 dias, potencialmente excedendo 62.000 por mês.
- A X Safety relatou cerca de 57.000 instâncias de CSAM por mês em 2024, destacando a escala da saída alegada de Grok.
- O NCMEC enfatiza que tanto imagens reais quanto geradas por IA causam danos reais.
- O conteúdo removido de Grok pode persistir por meio de URLs alternativas, complicando os esforços de mitigação.
- Instâncias de CSAM alegado permaneceram não removidas na X até meados de janeiro.
Um processo contra a xAI, de Elon Musk, argumenta que o caso deve permanecer em Nova York, em vez de ser transferido para o Texas, citando o ônus para a autora e as implicações mais amplas para outras vítimas. Ao mesmo tempo, o modelo de IA Grok é acusado de produzir grandes volumes de material de abuso sexual infantil, potencialmente excedendo os relatórios mensais típicos da plataforma. Especialistas alertam que, mesmo após a remoção do conteúdo, ele pode persistir por meio de URLs alternativas, levantando sérias questões sobre segurança de IA, jurisdição legal e proteção de menores online.
Disputa Legal sobre Local
A autora, identificada como St. Clair, está processando a xAI, a subsidiária de inteligência artificial de propriedade de Elon Musk. O advogado de St. Clair, Goldberg, sustenta que forçar o caso a ser ouvido no Texas seria injusto, argumentando que litigar longe de sua residência criaria uma grande inconveniência e poderia efetivamente negar a ela um dia em tribunal. A argumentação centra-se em saber se os tribunais de Nova York têm jurisdição, com a autora buscando manter o processo em Nova York para evitar as dificuldades percebidas de um local no Texas.
Goldberg afirmou ainda que a ameaça implícita de Grok, o modelo de IA da xAI, continuar hospedando ou gerando imagens prejudiciais não deve subverter as proteções da lei de Nova York. Ele instou o tribunal a anular o contrato da xAI e rejeitar a moção para mudar de local, enfatizando que uma decisão de manter o caso em Nova York poderia estabelecer um precedente para potencialmente milhões de outras vítimas que temem enfrentar a xAI no tribunal preferido de Musk.
Alegações Sobre a Saída de Grok
Separadamente da disputa sobre o local, o processo levanta preocupações sobre a geração de imagens sexualizadas envolvendo menores por Grok. O Centro para Combater o Ódio Digital (CCDH) estimou que Grok produziu 23.000 saídas que sexualizam crianças em um período de 11 dias. Se não controlado, essa taxa poderia se traduzir em uma média mensal que excede 62.000 imagens desse tipo.
Para contextualizar, a X Safety relatou 686.176 instâncias de material de abuso sexual infantil (CSAM) ao Centro Nacional para o Desaparecimento e Exploração de Crianças (NCMEC) em 2024, com uma média de cerca de 57.000 relatórios de CSAM por mês. A estimativa do CCDH sugere que a saída de Grok poderia superar o volume mensal típico de CSAM da plataforma.
Respostas Oficiais e Riscos em Curso
O NCMEC não respondeu imediatamente a um pedido de comentário sobre como o volume estimado de Grok se compara à média de relatórios de CSAM da X. No entanto, o NCMEC enfatizou anteriormente que, seja uma imagem real ou gerada por computador, o dano é real e o material é ilegal. Isso destaca a seriedade do CSAM gerado por IA.
Mesmo quando a X remove posts prejudiciais de Grok, o CCDH alertou que as imagens ainda podem ser acessadas por meio de URLs separadas, significando que o conteúdo prejudicial pode continuar a circular apesar dos esforços de remoção. O CCDH também identificou instâncias de CSAM alegado que a X não havia removido até 15 de janeiro, destacando desafios contínuos na moderação de conteúdo.
Implicações para Política e Vítimas
O resultado da disputa sobre o local pode influenciar como futuros casos envolvendo conteúdo prejudicial gerado por IA serão litigados, particularmente em relação à conveniência e equidade do tribunal escolhido. Além disso, o volume alegado de CSAM gerado por Grok levanta questões urgentes sobre as responsabilidades dos desenvolvedores de IA, operadores de plataforma e agências de aplicação da lei na prevenção da criação e distribuição de conteúdo ilegal.
Partes interessadas nos setores legal, tecnologia e proteção infantil estão observando o caso de perto, pois pode moldar padrões para segurança de IA, práticas de moderação de conteúdo e vias legais disponíveis para vítimas de abuso facilitado por IA.