O Aplicativo Gemini da Google Permite a Geração de Imagens de Violência Histórica Proibidas

Pontos principais
- A Verge testou o Nano Banana Pro da Google, impulsionado pela Gemini, para geração de imagens.
- O modelo produziu imagens de eventos violentos históricos sem filtros aparentes.
- A política da Google proíbe explicitamente conteúdo violento ou de ódio envolvendo figuras do mundo real.
- As imagens geradas incluíram estilos cartoon e fotorealistas, às vezes adicionando datas.
- A facilidade de criação levanta preocupações sobre o uso indevido para desinformação.
- A Google não respondeu imediatamente a uma solicitação de comentário sobre as descobertas.
Um teste do gerador de imagens Nano Banana Pro, impulsionado pela Gemini, revelou que a ferramenta pode criar representações de eventos violentos históricos, como os ataques às Torres Gêmeas, o local do assassinato de JFK e a Praça Tiananmen, apesar da política da Google que proíbe conteúdo violento ou de ódio envolvendo figuras do mundo real.
Testando o Nano Banana Pro Impulsionado pela Gemini
A Verge examinou a camada gratuita do Nano Banana Pro da Google, que funciona com o modelo Gemini, solicitando a geração de imagens de tragédias históricas bem conhecidas. As solicitações incluíram cenas como um avião voando em direção às Torres Gêmeas, um segundo atirador na Praça Dealey, a Casa Branca em chamas e outras representações gráficas de eventos como a massacre na Praça Tiananmen. O modelo cumpriu sem filtros aparentes, produzindo versões cartoon e fotorealistas, e até adicionou detalhes contextuais como datas.
Política versus Prática
A política pública da Google para o aplicativo Gemini afirma que o serviço visa ser "maximalmente útil enquanto evita saídas que possam causar dano ou ofensa no mundo real", proibindo explicitamente solicitações de conteúdo sexualmente explícito, violento, de ódio ou relacionado a figuras do mundo real. No entanto, o teste demonstrou que os guardrails não são consistentemente aplicados. As imagens geradas omitiram gore gráfico, mas ainda representaram eventos históricos proibidos, levantando preocupações sobre o potencial de abuso para desinformação.
Potencial de Abuso
A facilidade com que o modelo produziu essas imagens sugere que atores podem usar a ferramenta para criar conteúdo visual enganoso para mídias sociais ou outras plataformas. A Verge destacou que a falta de resistência a essas solicitações pode facilitar a disseminação de narrativas falsas, especialmente quando as imagens são apresentadas como documentação histórica autêntica.
Resposta da Google
Quando abordada para comentar, a Google não respondeu imediatamente à consulta da Verge, deixando a posição da empresa sobre as deficiências observadas incerta.
Implicações para a Moderação de IA
Este incidente destaca os desafios de alinhar as capacidades de IA com as políticas de moderação de conteúdo. Embora alguns serviços concorrentes exijam prompts mais complexos para contornar as restrições, a conformidade direta do Nano Banana Pro ilustra uma lacuna entre a política declarada e o comportamento no mundo real, enfatizando a necessidade de mecanismos de aplicação mais robustos.