Meta Remove Vídeo de Deepfake que Visava Candidata à Presidência Irlandesa

Meta removes AI deepfake video of Irish presidential candidate

Pontos principais

  • A Meta removeu um vídeo de deepfake gerado por IA da candidata presidencial irlandesa Catherine Connolly.
  • O vídeo foi postado por uma conta não afiliada chamada RTÉ News AI.
  • Ele foi compartilhado quase 30.000 vezes no Facebook antes de ser removido.
  • Connolly chamou o vídeo de "uma tentativa desprezível de enganar os eleitores" e confirmou que permanece como candidata.
  • A Meta citou violações de sua política de impersonação ao remover o conteúdo.
  • O regulador irlandês Coimisiún na Meán confirmou a resposta rápida da plataforma.
  • O deepfake falsamente mostrou Connolly se retirando e a eleição sendo cancelada.
  • O incidente destaca os desafios contínuos em policiar deepfakes políticos nas mídias sociais.

A Meta removeu um vídeo de deepfake gerado por IA que falsamente retratava a candidata presidencial independente Catherine Connolly anunciando sua retirada da corrida. O vídeo, postado por uma conta chamada RTÉ News AI, foi compartilhado quase 30.000 vezes no Facebook antes de ser removido.

Intervenção da Meta

A Meta removeu um vídeo de deepfake que falsamente mostrava a candidata presidencial independente Catherine Connolly anunciando que estava se retirando da eleição presidencial irlandesa. O vídeo, criado com ferramentas de inteligência artificial, foi postado por uma conta chamada RTÉ News AI, que não está afiliada à emissora pública Raidió Teilifís Éireann. Em um curto período, o clipe foi compartilhado quase 30.000 vezes no Facebook antes da Meta intervir.

Resposta da Candidata

Connolly descreveu o vídeo como "uma tentativa desprezível de enganar os eleitores e minar a democracia irlandesa". Ela afirmou publicamente que permanece como candidata e rejeitou as declarações falsas retratadas no deepfake. A declaração da candidata visava tranquilizar o eleitorado diante da rápida disseminação do conteúdo manipulado.

Conteúdo do Deepfake

O vídeo gerado por IA apresentava Connolly fazendo um anúncio fabricado de sua retirada, seguido por um jornalista simulado da RTÉ, Sharon Ní Bheoláin, relatando a suposta retirada, e um correspondente, Paul Cunningham, alegando que a eleição havia sido cancelada. A narrativa falsamente sugeriu que a oponente de Connolly, Heather Humphreys, venceria automaticamente.

Aplicação da Política da Meta

A Meta explicou que o vídeo e a conta RTÉ News AI foram removidos por violarem os padrões da comunidade da empresa, especificamente sua política que proíbe conteúdo que imita ou falsamente representa indivíduos. A plataforma atuou após ser alertada pelo Irish Independent, o que levou a Meta a tomar medidas imediatas.

Supervisão Regulatória

O regulador de mídia da Irlanda, Coimisiún na Meán, confirmou estar ciente do deepfake e questionou a Meta sobre as medidas tomadas. A participação do regulador destaca o aumento da vigilância das plataformas de mídia social em relação à desinformação política.

Contexto Mais Amplo

O incidente adiciona a uma série de desafios que a Meta enfrentou para conter vídeos de deepfake e editados com má-fé que envolvem figuras públicas. No início deste ano, o Conselho de Supervisão da empresa criticou a Meta por não aplicar suficientemente suas próprias regras e pediu melhor treinamento para revisores de conteúdo para detectar mídia manipulada por IA. A posição de Connolly nas pesquisas, com 44 pontos, indica sua proeminência na corrida, tornando a disseminação de conteúdo falso particularmente preocupante para os processos democráticos.

#Meta#deepfake#IA#Catherine Connolly#eleição presidencial irlandesa#desinformação#Facebook#RTÉ News AI#manipulação política#Coimisiún na Meán

Também disponível em: