El panorama de la ciberseguridad ha registrado un hito preocupante con la reciente utilización de Claude, el chatbot de inteligencia artificial creado por la firma Anthropic, como herramienta principal en una ofensiva digital contra diversas dependencias del gobierno en México.
De acuerdo con reportes difundidos por la agencia Bloomberg, un atacante informático consiguió manipular las funciones avanzadas del sistema para recolectar información sensible relacionada con registros de votantes y datos impositivos. Esto fue posible mediante el uso de instrucciones diseñadas específicamente para evadir los controles y filtros de seguridad internos que posee la plataforma.
Los hechos, que tuvieron lugar en el periodo comprendido entre diciembre de 2023 y enero de 2024, han puesto de manifiesto la capacidad de la inteligencia artificial para ser empleada en la ejecución de ataques sofisticados, representando un reto mayúsculo para los desarrolladores tecnológicos en su intento por prevenir usos delictivos de estas herramientas.
La operatividad del ataque coordinado en territorio mexicano
A través de una minuciosa investigación presentada por la compañía de seguridad israelí Gambit Security, se determinó que el cibercriminal empleó a Claude para la redacción de scripts de programación, el hallazgo de brechas de seguridad y la automatización de procesos para infiltrarse en las redes de diversos entes públicos. Las instituciones afectadas incluyen a la autoridad fiscal federal de México, el Instituto Nacional Electoral (INE), y administraciones estatales de entidades como Jalisco, Michoacán y Tamaulipas. Asimismo, el ataque alcanzó a sistemas de nivel municipal y al servicio de agua de la ciudad de Monterrey.

El reporte detalla que el operador interactuó con la IA en idioma español, dándole instrucciones para que asumiera el rol de un especialista en ciberataques. De esta forma, adaptó el lenguaje de las peticiones de manera progresiva hasta lograr que el sistema procesara y ejecutara miles de comandos dirigidos a las infraestructuras de red del Estado.
Como resultado de esta incursión, se estima que fueron extraídos 150 gigabytes de datos. Este volumen de información compromete aproximadamente 195 millones de registros que abarcan padrones electorales y datos de contribuyentes. Las indagaciones indican que el perpetrador utilizó técnicas de jailbreak, insistiendo con diversas tácticas hasta que logró “liberar” las restricciones del chatbot, ignorando las advertencias de seguridad iniciales.
Por su parte, la empresa Anthropic ratificó que, tras ser notificada de la situación, procedió a interrumpir las actividades irregulares y canceló las cuentas vinculadas al incidente. La organización señaló además que los patrones de ataque detectados fueron integrados en sus protocolos de entrenamiento para robustecer las defensas de sus próximas versiones, tales como Claude Opus 4.6.
Reacciones de las instituciones y los límites de la seguridad
El impacto del suceso generó que múltiples organismos en México se pronunciaran. El Instituto Nacional Electoral manifestó que no ha corroborado vulneraciones en fechas recientes, aunque subrayó que ha intensificado sus medidas de protección digital. En una línea similar, el gobierno de Jalisco descartó que sus sistemas internos sufrieran daños, señalando que el foco del problema se situó en las redes de carácter federal. En contraste, tanto la autoridad fiscal federal como otras entidades locales involucradas no emitieron respuestas inmediatas ante los requerimientos de información.

La documentación de Gambit Security resalta que el objetivo primordial del atacante era la obtención de identidades pertenecientes a empleados del sector público, logrando explotar un total de 20 vulnerabilidades específicas. En momentos donde Claude presentaba bloqueos, el hacker recurría de manera complementaria a ChatGPT, propiedad de OpenAI, para recabar datos sobre credenciales de acceso restringido y movimientos laterales dentro de las redes vulneradas.
Curtis Simpson, quien se desempeña como director de estrategia en Gambit Security, explicó que el uso de estas tecnologías permitió al atacante generar
“miles de informes detallados que incluían planes listos para ejecutar”
, lo cual simplificó drásticamente la identificación de blancos y el aprovechamiento de accesos de seguridad.
Un desafío global ante riesgos tecnológicos en aumento
Este caso en México es parte de una tendencia internacional donde la inteligencia artificial se perfila como un arma de doble filo: una defensa potente y, simultáneamente, un vector de ataques de alta complejidad. Tanto Anthropic como OpenAI han declarado el cierre constante de cuentas que violan sus políticas de uso, especialmente aquellas destinadas a la manipulación de sistemas o el robo de información a gran escala.
La auditoría de Gambit Security reveló que el usuario malintencionado logró sortear las barreras de Claude fingiendo ser un participante de programas de recompensas por hallazgo de errores (bug bounty). Esta fachada le permitió realizar pruebas de penetración en sistemas oficiales sin levantar sospechas inmediatas. Cada vez que el chatbot identificaba una solicitud inusual, el atacante reformulaba su estrategia hasta que las restricciones cedían.

El suceso ocurre en un contexto de expansión masiva de la IA en la ciberseguridad, donde los delincuentes y los servicios de inteligencia buscan nuevas formas de explotar la tecnología mientras las compañías intentan levantar muros digitales más sólidos.
La diligencia mostrada por Anthropic y el trabajo conjunto con especialistas de Gambit Security evidencian la relevancia de reaccionar con agilidad ante amenazas que evolucionan día a día. Sin embargo, la efectividad de este ataque contra organismos del gobierno mexicano deja abierta la discusión sobre la suficiencia de los protocolos actuales de protección de datos y la necesidad de establecer normativas más estrictas en el uso de modelos de lenguaje.
Fuente: Fuente