Una investigación reveló que la inteligencia artificial puede identificar cuentas anónimas en redes sociales



Una investigación académica realizada por los investigadores Simon Lermen y Daniel Paleka reveló que los sistemas de inteligencia artificial basados en grandes modelos de lenguaje pueden facilitar la identificación de usuarios que operan con cuentas anónimas en redes sociales. 


El estudio advirtió que estas tecnologías son capaces de analizar información dispersa en internet y vincular perfiles anónimos con identidades reales presentes en otras plataformas digitales.


Según informó The Guardian, el trabajo de Lermen y Paleka asegura que en la mayoría de los escenarios de prueba analizados, los modelos lograron establecer coincidencias entre cuentas anónimas y usuarios identificables con un alto grado de probabilidad a partir de los datos que las personas publican en distintos servicios online.


Según los autores, la disponibilidad de modelos de lenguaje accesibles al público reduce de forma significativa el costo y la complejidad técnica necesarios para ejecutar ataques de privacidad avanzados, lo que obliga a reconsiderar qué información puede considerarse realmente privada en internet.


Cómo la IA puede reconstruir identidades en línea

El experimento consistió en introducir en un sistema de inteligencia artificial datos publicados por cuentas anónimas y permitir que el modelo recopilara y analizara toda la información disponible en la web para encontrar coincidencias.

El estudio presenta un ejemplo hipotético para ilustrar el funcionamiento del proceso. Un usuario anónimo podría comentar en redes sociales que tiene dificultades en la escuela y que suele pasear a su perro llamado Biscuit en Dolores Park. A partir de esos datos, el sistema puede buscar coincidencias en otras plataformas donde aparezcan detalles similares y vincular la cuenta anónima con una identidad conocida.


Aunque el ejemplo es ilustrativo, los investigadores advierten que el mismo enfoque podría aplicarse en situaciones reales. Entre los escenarios mencionados figuran sistemas de vigilancia dirigidos a activistas o disidentes que publican de forma anónima, así como ataques informáticos que utilizan información personal para crear estafas altamente personalizadas.


La vigilancia basada en inteligencia artificial es un campo que genera preocupación entre especialistas en privacidad y seguridad informática. Los modelos de lenguaje permiten sintetizar y correlacionar grandes volúmenes de datos públicos, una tarea que sería extremadamente compleja si se realizara de forma manual.


Según Lermen, incluso información pública aparentemente trivial puede utilizarse para fraudes digitales. Uno de los ejemplos más frecuentes es el spear phishing, una modalidad de ataque en la que un ciberdelincuente se hace pasar por un contacto de confianza para persuadir a la víctima de abrir un enlace malicioso o revelar información sensible.


Riesgos, errores y nuevos desafíos para la privacidad

Especialistas en seguridad advierten que el uso de inteligencia artificial para vincular identidades también plantea riesgos importantes.


Peter Bentley, profesor de informática en University College London, señaló que existe preocupación sobre posibles aplicaciones comerciales diseñadas para desanonimizar usuarios si estas herramientas se convierten en productos accesibles en el mercado.


Otro problema radica en la posibilidad de errores. Los modelos de lenguaje pueden establecer conexiones incorrectas entre cuentas y personas, lo que podría provocar acusaciones injustificadas o la difusión de información errónea.


Marc Juárez, investigador en ciberseguridad de la Universidad de Edimburgo, advirtió además que la información utilizada por estos sistemas no se limita a redes sociales. Bases de datos públicas, registros hospitalarios, estadísticas oficiales o datos de admisión académica podrían combinarse para reconstruir identidades con mayor precisión.


Aun así, la tecnología no siempre logra identificar a una persona detrás de una cuenta anónima. Los investigadores señalan que en muchos casos no existe suficiente información disponible o el número de coincidencias posibles es demasiado amplio como para establecer una conexión confiable.


Marti Hearst, profesora de la Escuela de Información de la Universidad de California en Berkeley, explicó que la desanonimización suele ser posible cuando una persona comparte los mismos detalles personales en múltiples plataformas digitales.


Frente a este escenario, los especialistas recomiendan revisar los métodos actuales de anonimización de datos. Entre las medidas propuestas se incluyen limitar el acceso masivo a información de usuarios, detectar procesos automatizados de recolección de datos y restringir la exportación masiva de bases de datos.


Los investigadores también subrayan que los propios usuarios pueden reducir su exposición evitando publicar datos personales repetidos en distintas plataformas o combinaciones de información que faciliten su identificación.

Artículo Anterior Artículo Siguiente