Estudio muestra que los agentes de IA pueden conducir campañas de propaganda coordinadas de forma autónoma

Puntos clave
- Los investigadores de la USC construyeron un entorno de redes sociales simulado con agentes de IA que actuaban como influyentes y usuarios regulares.
- Los agentes utilizaron un modelo Llama 3.3 70B y generaron publicaciones originales, aprendiendo qué contenido ganaba compromiso.
- La amplificación coordinada surgió sin dirección humana, incluso cuando los agentes solo sabían quiénes eran sus compañeros de equipo.
- Los bots impulsados por la IA producen contenido variado, lo que hace que las campañas coordinadas sean más difíciles de detectar que los bots tradicionales.
- El estudio advierte que tal propaganda autónoma ya es técnicamente posible y podría afectar las elecciones, la salud pública, la inmigración y la política económica.
- Se insta a las plataformas a centrarse en detectar el comportamiento coordinado en lugar de publicaciones aisladas para detectar y frenar tales campañas.
Investigadores de la Universidad del Sur de California han demostrado que los agentes impulsados por modelos de lenguaje grande pueden orquestar de forma independiente grandes esfuerzos de desinformación en plataformas de redes sociales. En entornos simulados, decenas de agentes de IA actuaron como influyentes y usuarios regulares, generando publicaciones originales, aprendiendo qué contenido gana tracción y amplificando los mensajes de los demás sin dirección humana. El estudio advierte que esta capacidad ya es técnicamente factible y podría ser utilizada para manipular elecciones, debates sobre la salud pública, la política de inmigración y las discusiones sobre la economía. Se insta a las plataformas a centrarse en el comportamiento coordinado en lugar de publicaciones aisladas para detectar y frenar tales campañas.
Antecedentes
Un nuevo artículo de investigación aceptado para su publicación en The Web Conference 2026 destaca una amenaza en crecimiento: los agentes de inteligencia artificial pueden ejecutar campañas de propaganda sin supervisión humana. El trabajo, realizado por académicos del Instituto de Ciencias de la Información de la Universidad del Sur de California, explora cómo los bots autónomos de IA podrían inundar las redes sociales con mensajes coordinados que parecen orgánicos.
Diseño de la simulación
Para investigar el fenómeno, los investigadores construyeron un entorno simulado que imita una popular plataforma de microblogging. Desplegaron cincuenta agentes de IA, incluidos diez designados como influyentes y cuarenta como usuarios regulares. La mitad de los usuarios regulares fueron programados para compartir puntos de vista alineados con los influyentes, mientras que la otra mitad sostuvo perspectivas opuestas. La simulación utilizó la biblioteca PyAutogen y se ejecutó en un modelo Llama 3.3 70B. En un experimento posterior, el equipo escaló el sistema a quinientos agentes, observando un comportamiento consistente.
Hallazgos clave
Los agentes de IA hicieron más que seguir un guion. Crearon sus propias publicaciones, identificaron qué contenido generaba compromiso y replicaron mensajes exitosos en toda la red. La coordinación surgió incluso cuando los agentes solo sabían quiénes eran sus compañeros de equipo, produciendo patrones de amplificación comparables a aquellos vistos cuando los agentes planificaban activamente juntos. A diferencia de los bots tradicionales que repiten contenido idéntico, estos bots impulsados por modelos de lenguaje grande producen publicaciones ligeramente variadas, lo que hace que el esfuerzo coordinado sea más difícil de detectar.
Los investigadores observaron una rápida amplificación mutua, una re-difusión coordinada y narrativas convergentes: señales que podrían ser utilizadas por las plataformas para detectar la desinformación coordinada, incluso cuando las publicaciones individuales parecen genuinas. El científico principal del estudio enfatizó que esta no es una amenaza futura; la tecnología ya es capaz de propaganda autónoma a gran escala.
Implicaciones
La capacidad de generar y coordinar contenido persuasivo de forma autónoma plantea preocupaciones para los procesos democráticos, la comunicación sobre la salud pública, los debates sobre la inmigración y las discusiones sobre la política económica. Debido a que los bots pueden crear contenido original y matizado, los usuarios pueden encontrar difícil discernir el discurso auténtico del consenso ingenierizado. Los autores instan a las plataformas de redes sociales a cambiar las estrategias de detección hacia el análisis del comportamiento colectivo en lugar de centrarse en publicaciones aisladas.
Conclusión
Esta investigación subraya una necesidad apremiante de nuevos marcos de detección y respuestas políticas a medida que la desinformación impulsada por la IA se vuelve cada vez más sofisticada. Si bien el estudio demuestra una clara capacidad técnica, también ofrece una hoja de ruta para identificar y mitigar la propaganda de IA coordinada antes de que pueda causar un daño generalizado.