La nueva apuesta de Anthropic en el campo de la inteligencia artificial, denominada Claude Mythos, ha encendido las alarmas en el sector tecnológico. Aunque fue diseñada originalmente para robustecer la seguridad defensiva, se ha descubierto que posee la facultad de realizar ataques autónomos contra empresas de pequeña escala que operan con infraestructuras digitales precarias.
Este modelo avanzado, Claude Mythos, tiene como propósito principal la detección de vulnerabilidades de máxima gravedad en los navegadores web y sistemas operativos más importantes de la actualidad. Con esta herramienta, la organización desarrolladora busca «transformar la ciberseguridad» de manera radical.
Evaluaciones de seguridad en el Reino Unido
Para medir el alcance real de esta tecnología, el Instituto de Seguridad de la IA (AISI), organismo dependiente del Departamento de Ciencia, Innovación y Tecnología del Reino Unido, llevó a cabo una serie de pruebas rigurosas. Aprovechando la fase de vista previa del modelo, los expertos ejecutaron simulaciones controladas que contemplaron:
- Desafíos de captura de bandera (CTF).
- Sondeos basados en interfaces de chat.
- Simulaciones de ciberataques complejos de múltiples pasos.
Las conclusiones del AISI, difundidas a través de una entrada en su blog oficial, son contundentes respecto a la eficiencia del sistema. Según el instituto, en las pruebas efectuadas:
«observamos que podía ejecutar ataques de varias etapas en redes vulnerables y descubrir y explotar vulnerabilidades de forma autónoma, tareas que requerirían días de trabajo para los profesionales humanos»
El informe detalla que estas capacidades permitirían a Claude Mythos vulnerar de forma independiente a organizaciones pequeñas que carecen de sistemas defensivos sólidos. No obstante, los investigadores no han llegado al punto de asegurar que el modelo sea capaz de penetrar en infraestructuras que estén bien protegidas.
Esta distinción es clave, ya que el AISI admite que existe una disparidad entre los entornos de evaluación controlados —donde no se aplican penalizaciones ni medidas de seguridad reales— y las condiciones de una red corporativa auténtica. Debido a esto, la institución ha anunciado que en el futuro empleará «campos de pruebas que simulen entornos reforzados y protegidos», lo que permitirá una medición más exacta del peligro potencial que representan los modelos de IA más avanzados.
Fuente: Fuente