Adolescentes processam xAI de Elon Musk por CSAM gerado por IA do Grok

Teens sue Elon Musk’s xAI over Grok’s AI-generated CSAM

Pontos principais

  • Três adolescentes do Tennessee processam a xAI, alegando que o Grok gerou material de abuso sexual infantil.
  • Os autores da ação afirmam que as imagens e vídeos usaram seus rostos reais e foram compartilhados no Discord e no Telegram.
  • A ação acusa a xAI de lançar um "modo picante" sem testar a segurança do recurso.
  • Reguladores nos EUA, UE e Reino Unido abriram investigações ou emitiram alertas.
  • O Congresso aprovou um projeto de lei para permitir que vítimas de deepfakes processassem os criadores; a Lei Take It Down visa deepfakes gerados por IA.
  • A X afirma que os usuários que criam conteúdo ilegal com o Grok enfrentarão as mesmas penalidades que os carregadores.
  • A ação busca danos e uma injunção para parar a geração de CSAM gerado por IA.

Três adolescentes do Tennessee entraram com uma ação coletiva contra a xAI de Elon Musk, alegando que o chatbot Grok da empresa produziu material de abuso sexual infantil (CSAM) gerado por IA após lançar um modo "picante" no ano passado. Os autores da ação afirmam que as imagens e vídeos foram criados usando seus rostos reais, compartilhados no Discord e negociados no Telegram, e que a xAI não testou a segurança do recurso. A ação busca danos e uma injunção para parar a geração de conteúdo ilegal, enquanto legisladores e reguladores já começaram a investigar o comportamento do Grok.

Contexto e Alegações

Três adolescentes do Tennessee propuseram uma ação coletiva contra a empresa de inteligência artificial de Elon Musk, xAI. A queixa alega que o Grok, chatbot da xAI, gerou imagens e vídeos sexualizados dos autores da ação quando o recurso de "modo picante" foi introduzido no ano passado. Os autores da ação incluem dois menores e um adulto que era menor de idade no momento em que os incidentes alegados ocorreram.

Uma das autoras da ação, identificada como "Jane Doe 1", afirma que em dezembro descobriu imagens explícitas, geradas por IA, de si mesma e de pelo menos 18 outros menores no Discord. De acordo com a petição, pelo menos cinco arquivos - um vídeo e quatro imagens - mostravam seu rosto e corpo reais em ambientes familiares que haviam sido transformados em poses sexualmente explícitas.

Distribuição e Negociação

A ação afirma que um autor, que já foi preso, usou o CSAM gerado por IA como uma ferramenta de negociação em chats de grupo do Telegram. O indivíduo alegadamente negociou os arquivos por outros conteúdos sexualmente explícitos envolvendo menores, distribuindo o material para centenas de usuários.

De acordo com a queixa, o autor criou a mídia explícita usando o Grok, e a xAI "não testou a segurança dos recursos que desenvolveu", tornando o Grok "defeituoso em design".

Resposta Regulatória e Legislativa

O lançamento do Grok gerou uma onda de escrutínio. A ferramenta inundou a plataforma de mídia social X com imagens explícitas de adultos e menores, provocando pedidos de investigação da Comissão Federal de Comércio, uma investigação da União Europeia e um alerta do primeiro-ministro do Reino Unido.

Nos Estados Unidos, o Senado aprovou um projeto de lei em janeiro que permitiria que vítimas de deepfakes não consensuais processassem os criadores. Além disso, a Lei Take It Down, assinada pelo presidente Donald Trump em 2025, criminalizará a distribuição de deepfakes não consensuais gerados por IA quando entrar em vigor em maio.

Resposta da Empresa e Problemas Pendentes

A X tentou dificultar que os usuários editem imagens com o Grok, mas The Verge descobriu que a manipulação ainda é possível. A X afirma que qualquer pessoa que use ou solicite o Grok para criar conteúdo ilegal enfrentará as mesmas consequências que se tivesse carregado conteúdo ilegal ela mesma.

A advogada Annika K. Martin, do Lieff Cabraser, representando as vítimas, disse: "Essas são crianças cujas fotografias escolares e de família foram transformadas em material de abuso sexual infantil por uma ferramenta de IA de uma empresa de um bilhão de dólares e, em seguida, negociadas entre predadores. Nossa intenção é responsabilizar a xAI por cada criança que foi prejudicada dessa maneira".

Objetivos Legais

A ação busca danos monetários para as vítimas e pede ao tribunal que impeça a geração e disseminação de CSAM gerado por IA alegado pela xAI no futuro.

#jurídico#inteligência artificial#material de abuso sexual infantil#processo de tecnologia#regulação#Elon Musk#xAI#Grok#mídia social#privacidade

Também disponível em:

Adolescentes processam xAI de Elon Musk por CSAM gerado por IA do Grok | AI News