O Gemini da Google Adiciona Detecção Limitada de Imagens de IA, Destaca Lacunas na Verificação de Deepfakes

Gemini's AI Image Detector Only Scratches the Surface. That's Not Good Enough

Pontos principais

  • O aplicativo Gemini da Google pode detectar uma marca d'água SynthID em imagens geradas pelas ferramentas de IA da Google.
  • A ferramenta confirma conteúdo gerado por IA rapidamente quando a marca d'água está presente.
  • Para imagens sem SynthID, o Gemini fornece apenas uma análise geral, não uma resposta definitiva.
  • O teste mostra detecção inconsistente em diferentes versões do Gemini, Gemini 3, Gemini 2.5 Flash, ChatGPT e Claude.
  • A variabilidade destaca a necessidade de métodos de detecção universais que funcionem em todos os geradores de IA.
  • Iniciativas da indústria, como a C2PA, visam criar padrões para proveniência e autenticação de conteúdo.

A Google introduziu um recurso de verificação de imagens em seu aplicativo Gemini que verifica uma marca d'água SynthID para determinar se uma imagem foi gerada pelas próprias ferramentas de IA da Google. A ferramenta funciona bem para conteúdo criado pela Google, mas oferece apenas avaliações vagas para imagens de outros geradores.

O Novo Ferramenta de Verificação de Imagens da Google

A Google adicionou um recurso ao aplicativo Gemini que permite aos usuários enviar uma imagem e perguntar se ela é real. O sistema procura por uma marca d'água digital chamada SynthID, que é incorporada em imagens criadas pelos modelos de IA da Google. Quando a marca d'água está presente, o Gemini confirma rapidamente a imagem como gerada por IA.

Limitações com Conteúdo Não-Google

Para imagens que não possuem a marca d'água SynthID, o Gemini fornece apenas uma análise geral, notando sinais típicos de criação artificial sem um veredito definitivo. Quando questionado sobre uma infográfico que a Google mesma gerou (que incluía metadados indicando que era produzido por IA), a versão do aplicativo usando SynthID detectou, mas a versão do navegador, que falta a verificação da marca d'água, deu uma resposta ambígua, afirmando que o design poderia ser de IA ou humano.

Resultados Inconsistentes em Diferentes Modelos

Versões diferentes do Gemini e outros chatbots produziram respostas mistas. O Gemini 3, o modelo de raciocínio de nível superior, ofereceu uma explicação detalhada para uma imagem de gato gerada pelo Nano Banana Pro, corretamente rotulando-a como gerada por IA. Em contraste, o Gemini 2.5 Flash adivinhou que a mesma imagem era uma fotografia real. O ChatGPT deu respostas contraditórias em diferentes dias, e os modelos Haiku 4.5 e Sonnet 4.5 do Claude disseram que a imagem parecia real.

Desafios Mais Amplos na Detecção de Imagens Geradas por IA

O teste destaca um problema mais amplo: muitas ferramentas de detecção de IA dependem de artefatos visíveis ou marcas d'água específicas do modelo, que podem ser contornadas ou estão ausentes em conteúdo de outros geradores. À medida que os modelos de imagem de IA melhoram, as pistas visuais tradicionais se tornam menos confiáveis. O artigo argumenta que uma marca d'água universal, difícil de remover e detectável por ferramentas comuns, seria mais eficaz.

Direções Futuras e Esforços da Indústria

A verificação da SynthID da Google representa um passo em direção à verificação confiável, mas o artigo nota a necessidade de adoção mais ampla em plataformas, incluindo extensões de navegador e motores de busca. Grupos da indústria, como a Coalizão para Proveniência e Autenticação de Conteúdo (C2PA), estão trabalhando em direção a padrões que permitiriam aos usuários verificar a proveniência de imagens sem aplicativos ou especialização.

#Google#Gemini#SynthID#Nano Banana Pro#detecção de imagem de IA#deepfakes#ChatGPT#Claude#C2PA#verificação de IA#proveniência de conteúdo

Também disponível em:

O Gemini da Google Adiciona Detecção Limitada de Imagens de IA, Destaca Lacunas na Verificação de Deepfakes | AI News