Sistema de IA muestra capacidad para reidentificar cuentas en línea anónimas

Puntos clave
- Los investigadores construyeron un sistema de IA utilizando modelos de lenguaje grande para vincular cuentas en línea anónimas con identidades reales.
- El sistema logró hasta un 68% de coincidencias correctas con una precisión del 90%, superando con creces a los métodos tradicionales.
- Las pruebas utilizaron conjuntos de datos públicos de Hacker News, LinkedIn y Reddit, entre otros.
- Todo el experimento costó menos de $2,000, o entre $1 y $4 por perfil analizado.
- Los resultados destacan los crecientes riesgos para la anonimidad en línea a medida que las capacidades de la IA se expanden.
- Los autores recomiendan precaución por parte de los usuarios y llaman a los laboratorios de IA y a las plataformas a implementar salvaguardias.
Investigadores de ETH Zurich, Anthropic y el programa de becarios de Alineación y Teoría de Aprendizaje Automático han construido un sistema de IA automatizado que puede vincular perfiles en línea pseudónimos con identidades reales. Utilizando modelos de lenguaje grande para analizar el estilo de escritura, los patrones de publicación y otras pistas, el sistema emparejó correctamente hasta el 68 por ciento de las cuentas con una precisión del 90 por ciento, superando con creces a los métodos tradicionales. El experimento costó solo unos pocos dólares por perfil, destacando una barrera de costo baja para la desanonimización a gran escala. El estudio advierte que la anonimidad en línea puede ser menos segura de lo que muchos asumen, especialmente a medida que las capacidades de la IA continúan mejorando.
Nuevo enfoque de IA para la desanonimización
Científicos de ETH Zurich, Anthropic y el programa de becarios de Alineación y Teoría de Aprendizaje Automático desarrollaron un sistema automatizado que utiliza modelos de lenguaje grande para identificar a los propietarios de cuentas en línea anónimas. El sistema trata cada publicación o texto como una colección de pistas — rarezas de escritura, pistas biográficas, frecuencia y momento de publicación — y busca patrones coincidentes en conjuntos de datos masivos.
Rendimiento en comparación con métodos tradicionales
Al probar con conjuntos de datos públicamente disponibles, incluyendo publicaciones de Hacker News, LinkedIn y Reddit, el enfoque impulsado por la IA identificó correctamente hasta el 68 por ciento de las cuentas coincidentes mientras mantenía una precisión del 90 por ciento. Por el contrario, las técnicas no LLM comparables identificaron casi none de las coincidencias. Las tasas de éxito aumentaron cuando estaba disponible más información estructurada; por ejemplo, vincular a los usuarios de Reddit que mencionaron diez o más películas tuvo éxito casi la mitad de las veces, mientras que vincular a aquellos que mencionaron solo una película tuvo éxito alrededor del 3 por ciento de las veces.
Costo y accesibilidad
Los investigadores informaron que todo el experimento costó menos de $2,000, lo que se traduce en entre $1 y $4 por perfil analizado. Este bajo costo reduce dramáticamente la barrera para que las entidades deseen realizar una desanonimización a gran escala.
Implicaciones para la privacidad y la seguridad
Los hallazgos sugieren que la suposición de seguridad detrás de la publicación pseudónima puede ser cada vez más poco confiable. Aunque el estudio se llevó a cabo en condiciones controladas con conjuntos de datos curados, los investigadores advierten que las aplicaciones del mundo real podrían volverse más efectivas a medida que los modelos de IA mejoran y acceden a piscinas de datos más grandes. Recomiendan que los usuarios limiten los detalles personales, eviten patrones de publicación identificables y mantengan cuentas separadas para mitigar el riesgo.
Llamadas a salvaguardias
Los autores argumentan que la responsabilidad no debe recaer únicamente en los usuarios. Sugieren que los desarrolladores de IA monitoren cómo se utilizan sus herramientas y que las plataformas de redes sociales frenen la extracción masiva de datos que permite tales esfuerzos de desanonimización. A pesar de los avances, los investigadores señalan que las técnicas actuales aún están lejos de las capacidades de un investigador humano experto, y que la anonimidad para objetivos de alto perfil — como el creador de Bitcoin — permanece intacta.