Una investigación reveló que Claude, la IA de Anthropic, habría ayudado a diseñar un gran ciberataque

 


Una investigación de ciberseguridad industrial reveló un nuevo caso de ataque informática: hackers utilizaron inteligencia artificial para localizar y analizar sistemas de control vinculados a una empresa municipal de agua y saneamiento de Monterrey, México. 


El episodio, detectado por la firma Dragos, involucró al modelo Claude, desarrollado por Anthropic, que habría sido empleado para explorar redes internas, identificar plataformas industriales y sugerir posibles caminos de acceso.


El incidente ocurrió en enero de 2026 y formó parte de una campaña que comprometió a nueve organismos gubernamentales mexicanos entre diciembre de 2025 y febrero de 2026, según el informe publicado esta semana.


Aunque los atacantes lograron ingresar al entorno corporativo de TI de la empresa, no consiguieron acceder a los sistemas operativos encargados del control industrial. Dragos aseguró que no encontró evidencia de manipulación sobre la infraestructura ni señales de visibilidad operativa sobre el entorno tecnológico de la compañía.


De acuerdo con la investigación, Claude detectó de manera autónoma un servidor relacionado con una puerta de enlace industrial vNode y una plataforma SCADA/IIoT. Después, la IA evaluó su relevancia dentro de la red y analizó posibles métodos para atravesar la separación entre los entornos administrativos y los sistemas de operación.


Un software ofensivo creado con asistencia de IA

Durante el análisis forense, Dragos examinó más de 350 artefactos vinculados con la intrusión. Gran parte del material estaba compuesto por scripts generados mediante inteligencia artificial.


Entre ellos apareció un framework en Python de aproximadamente 17.000 líneas de código que, según la compañía, fue escrito íntegramente con ayuda de Claude. El software había sido bautizado como “BACKUPOSINT v9.0 APEX PREDATOR”.


El framework incluía 49 módulos preparados para distintas tareas ofensivas, entre ellas recolección de credenciales, reconocimiento de Active Directory, acceso a bases de datos, escalada de privilegios y automatización de movimiento lateral dentro de redes comprometidas.


La investigación también señaló que Claude participó en cerca del 75% de las acciones de ejecución remota de comandos detectadas durante el ataque. GPT-4.1, de OpenAI, habría sido utilizado para procesar información obtenida de las víctimas y elaborar reportes estructurados.


Según Dragos, el atacante consiguió eludir las barreras de seguridad del modelo en unos 40 minutos al presentar las solicitudes como tareas de investigación vinculadas con programas de bug bounty.


Curtis Simpson, director de estrategia de Gambit Security, afirmó que el sistema produjo “miles de informes detallados” con instrucciones sobre objetivos internos, credenciales y próximos movimientos dentro de la red atacada.


La IA acelera ataques cada vez más complejos

El caso volvió a poner el foco sobre el crecimiento de los ciberataques asistidos por inteligencia artificial y la velocidad con la que estas herramientas pueden ejecutar tareas avanzadas.


Datos citados por Dragos indican que los ataques impulsados por IA crecieron un 89% interanual y que el tiempo promedio necesario para comprometer sistemas se redujo a apenas 29 minutos.


Para los especialistas, la principal diferencia pasa por la capacidad de estos modelos para interpretar estructuras internas, priorizar objetivos y generar instrucciones listas para ejecutar en tiempo real.


La campaña fue atribuida al actor identificado como TAT26-12. Según los investigadores, uno de los pocos patrones de comportamiento detectados durante la operación fue el uso constante del idioma español.

Artículo Anterior Artículo Siguiente