Modelos de IA pueden desanonimizar cuentas en línea, encuentra estudio

AI Models Can De‑anonymize Online Accounts, Study Finds

Puntos clave

  • Investigadores de Anthropic y ETH Zurich demuestran la desanonimización de cuentas en línea impulsada por IA.
  • Los grandes modelos de lenguaje extraen pistas personales de texto público y las emparejan en toda la web.
  • Los experimentos muestran un recuerdo de hasta el 68% y una precisión de aproximadamente el 90%, superando con creces los métodos tradicionales.
  • El costo de identificar un perfil se estima entre $1 y $4, lo que sugiere que las investigaciones a gran escala podrían ser económicas.
  • Los hallazgos plantean preocupaciones para periodistas, activistas y usuarios comunes que dependen del anonimato.
  • El estudio se realizó con datos públicos solo y aún no ha sido revisado por pares.
  • Los autores instan al desarrollo de herramientas de privacidad y salvaguardas de plataforma más sólidas.

Investigadores de Anthropic y ETH Zurich han demostrado que los grandes modelos de lenguaje pueden vincular perfiles de internet pseudónimos con identidades del mundo real. Al analizar texto público para buscar pistas personales y emparejar esas pistas en toda la web, el sistema de IA logró una alta precisión y recuerdo, superando con creces los métodos manuales tradicionales. Los hallazgos plantean preocupaciones sobre la durabilidad del anonimato en línea para periodistas, activistas y usuarios comunes, y sugieren que el costo de la desanonimización a gran escala podría ser muy bajo. Los autores enfatizan la necesidad de nuevas salvaguardas de privacidad a medida que crecen las capacidades de la IA.

Descripción del estudio

Científicos de Anthropic y ETH Zurich realizaron una investigación que demostró que los sistemas de inteligencia artificial modernos, específicamente los grandes modelos de lenguaje (GML), son capaces de identificar las identidades del mundo real detrás de las cuentas en línea supuestamente anónimas. El trabajo, publicado como preimpresión en arXiv, describe una plataforma automatizada que extrae señales de identidad de texto público y luego busca perfiles coincidentes en toda la internet.

Metodología y experimentos

El sistema de IA examinó publicaciones públicas en plataformas como Hacker News, Reddit y otros foros. Buscó pistas que incluían intereses personales, indicios demográficos, estilo de escritura y detalles incidentales que los usuarios revelan involuntariamente. Se realizaron tres experimentos clave:

  • Emparejar usuarios de Hacker News con sus perfiles de LinkedIn después de eliminar identificadores obvios.
  • Vincular cuentas de Reddit pseudónimas en diferentes comunidades.
  • Dividir la historia de publicaciones de un solo usuario en dos perfiles separados para probar si la IA podía reconocer que pertenecían a la misma persona.

En estas pruebas, el enfoque basado en GML logró un recuerdo de hasta el 68% con una precisión de aproximadamente el 90%, un nivel de rendimiento que las técnicas manuales o algorítmicas tradicionales no lograron alcanzar.

Implicaciones para la privacidad en línea

El estudio destaca una posible erosión de la "oscuridad práctica" en la que muchos usuarios confían al publicar de forma anónima. Periodistas, denunciantes, activistas y personas comunes a menudo dependen de la pseudonimia para discutir temas sensibles sin exponer sus identidades. Si la IA puede automatizar el proceso de desanonimización de manera rápida y económica, estimado entre $1 y $4 por perfil, la barrera para investigaciones a gran escala podría disminuir dramáticamente.

Los investigadores señalan que sus experimentos se llevaron a cabo en entornos controlados utilizando solo datos públicamente disponibles, y el documento aún no ha sido revisado por pares. También omitieron deliberadamente algunos detalles técnicos para reducir el riesgo de mal uso. Los autores llaman a realizar más trabajos para comprender tanto los riesgos como las posibles defensas, sugiriendo mejoras en herramientas de privacidad, salvaguardas de plataforma y sistemas de IA diseñados para proteger información sensible antes de que se compartan.

Conclusión

A medida que la IA se vuelve más hábil para analizar grandes cantidades de contenido en línea, el equilibrio entre poderosas herramientas de descubrimiento y la protección de la privacidad personal se volverá cada vez más crítico. Esta investigación subraya la necesidad urgente de nuevas estrategias para preservar el anonimato en la era digital.

#inteligencia artificial#privacidad#desanonimización#grandes modelos de lenguaje#anonimato en línea#privacidad digital#investigación#ETH Zurich#Anthropic

También disponible en: