Desinformación generada por IA abruma a X durante el conflicto en Irán

Puntos clave
- El chatbot de IA de X, Grok, identificó incorrectamente footage de la guerra en Irán y publicó imágenes generadas por IA.
- Videos y imágenes generados por IA que muestran ataques de misiles falsos, incendios en edificios y temas antisemitas han acumulado millones de visitas.
- Funcionarios iraníes y medios de comunicación estatales están utilizando herramientas de IA para crear contenido de guerra exagerado.
- X desmonetizó temporalmente cuentas con sellos de verificación azules que compartieron videos de combate generados por IA sin etiquetas.
- La desinformación tradicional continúa, como la mala atribución de ataques de misiles a una escuela.
- Expertos llaman a una regulación más fuerte de la desinformación generada por IA.
Expertos en desinformación informan que el chatbot de IA de X, Grok, identificó incorrectamente repetidamente videos de la guerra en Irán, mientras que cuentas pagadas con sellos de verificación azules compartieron imágenes y videos generados por IA que parecen realistas. La inundación de contenido creado por IA incluye videos falsos de misiles, incendios en edificios de gran altura y narrativas antisemitas. X respondió temporalmente desmonetizando cuentas con sellos de verificación azules que publican videos de combate generados por IA sin etiquetas, pero los investigadores advierten que la plataforma sigue siendo un centro de medios falsos sofisticados. Las llamadas a una regulación más fuerte de la desinformación impulsada por IA están creciendo a medida que continúa el conflicto.
Herramientas de IA impulsan un aumento de contenido falso
Especialistas en desinformación observaron que el chatbot de IA de X, Grok, no verificó correctamente una publicación sobre misiles iraníes, identificando incorrectamente la ubicación y la fecha del video original. Después de la verificación incorrecta, Grok publicó una imagen generada por IA, lo que ilustra cómo el sistema puede producir visuales engañosos. La plataforma en general ha visto un aumento dramático en imágenes y videos generados por IA, incluyendo videos falsos de un edificio de gran altura en Bahrein en llamas, un bombardero B-2 estadounidense presuntamente derribado y miembros de la Fuerza Delta supuestamente capturados. Algunas de estas piezas han acumulado millones de visitas antes de ser eliminadas.
Funcionarios iraníes y medios de comunicación estatales también han utilizado herramientas de IA para crear videos que muestran la fabricación de misiles dentro de cuevas y otras escenas exageradas de daños. Además, redes pro-régimen en X han circulado publicaciones generadas por IA antisemitas que muestran a judíos ortodoxos liderando a soldados estadounidenses a la guerra y celebrando bajas estadounidenses. Un video viral que muestra a una fila de niñas caminando junto al ex presidente Donald Trump en ropa interior alcanzó millones de visitas antes de ser eliminado.
Medidas parciales de X
En respuesta al aumento de medios de combate generados por IA, X anunció una política de desmonetización temporal para cuentas con sellos de verificación azules que publiquen dichos videos sin etiqueta. La plataforma no ha revelado cuántas cuentas han sido afectadas. Servicios premium que otorgan sellos de verificación azules han sido comprados por algunos funcionarios iraníes, lo que proporciona una mayor participación y posibles ganancias por publicaciones.
Desinformación no IA continuada
Las narrativas falsas tradicionales persisten junto con las falsificaciones de IA. Por ejemplo, se ha reutilizado footage de otros lugares del conflicto para afirmar que Irán lanzó el misil que impactó una escuela primaria en Minab, a pesar de la verificación de que un misil de crucero Tomahawk estadounidense impactó una base naval cercana. Esto ilustra la mezcla de desinformación generada por IA y convencional que circula en X.
Llamadas a una regulación más fuerte
Expertos advierten que la facilidad para crear contenido generado por IA con pocas consecuencias amenaza el discurso factual. El Instituto de Diálogo Estratégico destacó el uso de IA para impulsar narrativas abiertamente antisemitas, mientras que los analistas señalaron que las herramientas de detección son inconsistentes. La Junta de Supervisión de Meta criticó el enfoque de etiquetado de la empresa como insuficiente para la velocidad y el alcance de la desinformación impulsada por IA, especialmente durante las crisis. Los investigadores argumentan que sin una regulación robusta, la difusión de noticias falsas basadas en IA podría erosionar un mundo basado en hechos.