Adolescente Processa Aplicativo Nudify por Nus Falsos Gerados por IA

Pontos principais
- Adolescente entra com ação judicial contra um popular aplicativo "nudify" por criar nus falsos gerados por IA dela.
- Ela busca bloquear o aplicativo nos Estados Unidos e responsabilizar o criador.
- A autora da ação judicial relata distresse emocional duradouro e medo constante de as imagens ressurgirem.
- Um porta-voz afirma que pornografia não consensual é proibida pelos termos de serviço do Telegram.
- Cerca de 45 estados criminalizaram nus falsos, e a Lei Take It Down exige a remoção rápida de tal conteúdo.
Uma adolescente entrou com uma ação judicial contra o criador de um popular aplicativo "nudify" após imagens falsas de nus geradas por IA dela terem sido divulgadas online, causando distresse emocional duradouro. Ela busca bloquear o aplicativo nos Estados Unidos e responsabilizar as partes envolvidas. O caso destaca as crescentes preocupações sobre pornografia não consensual, o papel das plataformas na remoção de tal conteúdo e as recentes medidas legais visando coibir imagens sexuais geradas por IA.
Contexto da Ação Judicial
Uma adolescente entrou com uma ação judicial alegando que um aplicativo "nudify" usou inteligência artificial para criar imagens falsas de nus dela sem consentimento. A queixa afirma que as imagens causaram profundo distresse emocional, descrevendo sentir-se "mortificada e emocionalmente abalada" e temendo que as imagens possam reaparecer a qualquer momento.
Alegações Contra o Aplicativo e Seus Operadores
A autora da ação judicial visa o aplicativo em si, argumentando que, se os desenvolvedores não responderem, um tribunal pode conceder um julgamento por omissão e bloquear a distribuição do aplicativo nos Estados Unidos. Ela também processou o garoto que utilizou o aplicativo para gerar as imagens, alegando que suas ações a levaram a considerar abandonar a escola.
Impacto na Vítima
A adolescente descreve um sentimento constante de medo, afirmando que passará "o resto de sua vida" monitorando se as imagens ressurgem. Ela expressou desesperança sobre a possibilidade de as imagens poderem chegar a pedófilos, traficantes, amigos, familiares, futuros parceiros, faculdades, empregadores ou ao público em geral.
Resposta da Plataforma e Contexto Legal
Um porta-voz disse ao The Wall Street Journal que "pornografia não consensual e as ferramentas para criá-la são explicitamente proibidas pelos termos de serviço do Telegram e são removidas sempre que descobertas." A ação judicial chega em meio a esforços mais amplos para combater imagens íntimas não consensuais geradas por IA. Aproximadamente 45 estados criminalizaram nus falsos, e legislações recentes, como a Lei Take It Down, exigem que as plataformas removam tanto imagens íntimas reais quanto geradas por IA não consensuais dentro de 48 horas após o relato de uma vítima.
Resultados Potenciais
Se o tribunal conceder o pedido da autora, o aplicativo pode ser bloqueado nos Estados Unidos, estabelecendo um precedente para como o conteúdo sexual gerado por IA é tratado legalmente. O caso destaca os desafios que as vítimas enfrentam para controlar a disseminação de imagens deepfake e as responsabilidades das plataformas online para aplicar políticas de conteúdo.