Google Usará Hashes StopNCII para Remover Imagens Não Consensuais dos Resultados de Busca

Google will use hashes to find and remove nonconsensual intimate imagery from Search

Pontos principais

  • O Google se associa à StopNCII.org para bloquear imagens íntimas não consensuais nos resultados de busca.
  • Serão usados hashes (PDQ para imagens, MD5 para vídeos) para identificar e remover conteúdo marcado.
  • A iniciativa segue compromissos semelhantes do Facebook, Instagram, TikTok, Bumble e integração do Bing da Microsoft.
  • O Google foi criticado por estar atrasado em relação a seus pares na adoção de soluções baseadas em hash.
  • As ferramentas atuais de remoção ainda exigem que as vítimas identifiquem e marquem o material ofensivo.
  • Defensores pedem processos de remoção mais fáceis que não dependam de hashes gerados pelas vítimas.
  • A implementação está programada para começar nos próximos meses.

Google anunciou uma parceria com StopNCII.org para combater a disseminação de imagens íntimas não consensuais (NCII) por meio da tecnologia de hash em seus resultados de busca. Nos próximos meses, a empresa usará hashes de imagem e vídeo da StopNCII — PDQ para fotos e MD5 para vídeos — para identificar e bloquear conteúdo marcado sem armazenar os arquivos originais.

Contexto

As imagens íntimas não consensuais, frequentemente referidas como NCII, se proliferaram por toda a internet aberta, provocando chamados por salvaguardas mais fortes. A StopNCII.org oferece um sistema baseado em hash que gera identificadores únicos para imagens e vídeos abusivos, permitindo que as plataformas bloqueiem o conteúdo sem reter a mídia real. A organização usa hashes PDQ para imagens e hashes MD5 para vídeos, permitindo detecção precisa enquanto preserva a privacidade.

Iniciativa do Google

Em um anúncio recente, o Google confirmou uma parceria com a StopNCII.org para incorporar esses hashes em seu mecanismo de busca. Nos próximos meses, o Google irá scanear proativamente os resultados de busca por conteúdo que corresponda ao banco de dados de hash da StopNCII e removerá quaisquer correspondências. Ao utilizar a tecnologia de hash, o Google visa bloquear imagens não consensuais sem armazenar ou compartilhar os arquivos originais, reduzindo assim a exposição das vítimas a conteúdo prejudicial.

Contexto da Indústria

A decisão do Google chega após várias plataformas importantes terem adotado os hashes da StopNCII. O Facebook, Instagram, TikTok e Bumble aderiram à organização já em 2022, e a Microsoft integrou o sistema no Bing em setembro do ano passado. Foi destacado que o Google havia sido mais lento do que muitos de seus pares da indústria para adotar essa abordagem, um ponto reconhecido no post do blog do Google, que citou feedback de sobreviventes e defensores sobre a necessidade de uma ação mais ampla.

Desafios e Críticas

Embora o Google tenha introduzido ferramentas que permitem que indivíduos solicitem a remoção de conteúdo ofensivo, críticos argumentam que o processo ainda coloca o ônus nas vítimas para identificar e marcar o material elas mesmas. Defensores enfatizam que exigir que as vítimas gerem e enviem hashes de seus próprios dispositivos é uma barreira significativa, especialmente à medida que o conteúdo gerado por IA se torna mais prevalente. A dificuldade de remover tal conteúdo sem hashes iniciados pelas vítimas permanece como uma preocupação-chave.

Perspectiva Futura

A adoção dos hashes da StopNCII pelo Google marca um passo notável rumo à mitigação da disseminação de NCII por meio dos resultados de busca. No entanto, a empresa enfrenta pressão contínua para simplificar os mecanismos de remoção e reduzir o ônus sobre os sobreviventes. À medida que outras plataformas continuam a refinar suas abordagens, a indústria de tecnologia provavelmente observará a implementação do Google de perto para avaliar sua eficácia e potencial como modelo para intervenções futuras.

#Google#StopNCII#imagens íntimas não consensuais#NCII#tecnologia de hash#PDQ#MD5#Bing#Microsoft#Facebook#Instagram#TikTok#Bumble#segurança online

Também disponível em: