Meta retira video de deepfake que apuntaba a la candidata presidencial irlandesa

Puntos clave
- Meta retiró un video de deepfake generado por IA de la candidata presidencial irlandesa Catherine Connolly.
- El video fue publicado por una cuenta no afiliada llamada RTÉ News AI.
- Fue compartido casi 30.000 veces en Facebook antes de ser retirado.
- Connolly calificó el video de "intento deshonroso de engañar a los votantes" y confirmó que sigue siendo candidata.
- Meta citó violaciones de su política de impersonación al retirar el contenido.
- El regulador irlandés Coimisiún na Meán confirmó la respuesta rápida de la plataforma.
- El deepfake falsamente mostraba a Connolly retirándose y la elección siendo cancelada.
- El incidente destaca los desafíos continuos para controlar los deepfakes políticos en las redes sociales.
Meta ha retirado un video de deepfake generado por IA que falsamente mostraba a la candidata presidencial independiente Catherine Connolly anunciando su retiro de la carrera. El video, publicado por una cuenta llamada RTÉ News AI, fue compartido casi 30.000 veces en Facebook antes de ser retirado.
Intervención de Meta
Meta retiró un video de deepfake que falsamente mostraba a la candidata presidencial independiente Catherine Connolly anunciando que se retiraba de la próxima elección presidencial de Irlanda. El video, creado con herramientas de inteligencia artificial, fue publicado por una cuenta llamada RTÉ News AI, que no está afiliada a la emisora pública Raidió Teilifís Éireann. En un corto período, el clip fue compartido casi 30.000 veces en Facebook antes de que Meta interviniara.
Respuesta de la candidata
Connolly describió el video como "un intento deshonroso de engañar a los votantes y socavar la democracia de Irlanda". Ella afirmó públicamente que sigue siendo candidata y rechazó las declaraciones falsas que se mostraban en el deepfake. La declaración de la candidata tenía como objetivo tranquilizar a los electores en medio de una rápida difusión del contenido manipulado.
Contenido del deepfake
El video de deepfake generado por IA mostraba a Connolly anunciando su retiro, seguido de un periodista simulado de RTÉ, Sharon Ní Bheoláin, informando sobre el supuesto anuncio, y un corresponsal, Paul Cunningham, afirmando que la elección había sido cancelada. La narrativa falsamente sugería que la oponente de Connolly, Heather Humphreys, ganaría automáticamente.
Aplicación de la política de Meta
Meta explicó que el video y la cuenta RTÉ News AI fueron retirados por violar las normas de la comunidad de la empresa, específicamente su política que prohíbe el contenido que impersona o representa falsamente a las personas. La plataforma actuó después de ser alertada por el Irish Independent, lo que llevó a Meta a tomar medidas inmediatas.
Supervisión regulatoria
El regulador de medios irlandés, Coimisiún na Meán, confirmó que estaba al tanto del deepfake y cuestionó a Meta sobre las medidas tomadas. La participación del regulador subraya el creciente escrutinio de las plataformas de redes sociales con respecto a la desinformación política.
Contexto más amplio
El incidente se suma a una serie de desafíos que Meta ha enfrentado para frenar los videos de deepfake y los videos editados maliciosamente que involucran a figuras públicas. A principios de este año, el Consejo de Supervisión de la empresa criticó a Meta por no hacer suficiente para aplicar sus propias reglas y urgió a una mejor capacitación para los revisores de contenido para detectar los medios manipulados por IA. La posición de Connolly en las encuestas, con 44 puntos, indica su prominencia en la carrera, lo que hace que la difusión de contenido falso sea particularmente preocupante para los procesos democráticos.