No data was found

Regulación y riesgos de Claude Mythos: IA de Anthropic bajo la lupa

Varios de los organismos de supervisión financiera más influyentes del Reino Unido, en coordinación con la agencia nacional de ciberseguridad y las entidades bancarias de mayor peso en el país, han establecido una mesa de diálogo urgente. El objetivo primordial es analizar los riesgos de seguridad vinculados al modelo de inteligencia artificial Claude Mythos Preview, desarrollado por la firma Anthropic.

De acuerdo con informes publicados por el Financial Times, este avanzado sistema ha captado la atención del Banco de Inglaterra, la Autoridad de Conducta Financiera (FCA) y el Centro Nacional de Ciberseguridad (NCSC). Estas instituciones intentan determinar de qué manera la nueva IA podría comprometer o exponer fallos en infraestructuras informáticas de alta prioridad.

Claude Mythos Preview y el desafío de la ciberseguridad financiera

La inquietud respecto al modelo Mythos se origina a partir de su despliegue controlado dentro de la iniciativa de Anthropic conocida como “Project Glasswing”. Bajo este programa, solo ciertas organizaciones seleccionadas tienen permiso para emplear el modelo en tareas defensivas, buscando mitigar amenazas directas en sistemas críticos.

FILE PHOTO: Anthropic logo is seen in this illustration taken March 1, 2026. REUTERS/Dado Ruvic/Illustration/File Photo

En una comunicación oficial en su blog, Anthropic reveló que el modelo ya había detectado miles de vulnerabilidades en sistemas operativos, así como en navegadores de internet y diversos programas informáticos de uso común.

Fuentes cercanas al proceso indican que representantes de los bancos, empresas de seguros y operadores de mercados en territorio británico participarán en una reunión con los entes reguladores durante las próximas semanas. El propósito de este encuentro es profundizar en los detalles técnicos de los riesgos cibernéticos que podría acarrear la implementación o el uso malintencionado de Claude Mythos Preview dentro del engranaje financiero.

Claude Mythos es una IA que puede detectas fallos informáticos.

Preocupación en los mercados de Estados Unidos

Esta vigilancia regulatoria no es exclusiva de las islas británicas. Según reportó Reuters, el Secretario del Tesoro de Estados Unidos, Scott Bessent, también ha convocado a los principales directivos bancarios de Wall Street. El motivo de la reunión es evaluar el impacto potencial que este modelo de Anthropic podría tener sobre la seguridad digital de la economía estadounidense.

Ambas potencias buscan adelantarse a las capacidades de estas nuevas herramientas para proteger la estabilidad de sus mercados financieros y la resistencia de sus sistemas críticos. Esta actitud preventiva subraya la necesidad de equilibrar los avances tecnológicos con la seguridad del ecosistema digital, obligando a una cooperación internacional más estrecha.

(Imagen Ilustrativa Infobae)

Restricción de acceso para prevenir ciberataques

La startup Anthropic PBC ha tomado la determinación de restringir el acceso a su nueva creación. Por ahora, Mythos solo está disponible para los grandes gigantes del sector tecnológico. Esta medida surge por la preocupación de que la capacidad de este sistema pueda facilitar ciberataques, dada la alta sofisticación que presenta el modelo.

Información de Bloomberg detalla que compañías de la talla de Microsoft, Apple, Amazon y Cisco serán las primeras en realizar pruebas con Mythos. La idea es que estas empresas lo integren en sus procesos de control internos para hallar vulnerabilidades propias y compartir los hallazgos para fortalecer la defensa digital global.

Colaboración estratégica en el Proyecto Glasswing

A través del “Project Glasswing”, Anthropic busca que referentes tecnológicos sometan a la IA a pruebas rigurosas en escenarios reales. Esta fase de experimentación es vital para detectar fallos antes de que la tecnología sea accesible al público en general.


 (Imagen Ilustrativa Infobae)

Las organizaciones que forman parte de este proyecto tienen la ventaja de usar Mythos para auditar sus propios sistemas. Los descubrimientos sobre fallas de seguridad serán compartidos entre los participantes, estableciendo una red defensiva ante las amenazas que emergen con la inteligencia artificial avanzada.

Según Anthropic, este enfoque busca prevenir que agentes maliciosos exploten debilidades aún no detectadas en los modelos más avanzados de IA.

La estrategia de la empresa responde directamente a incidentes previos. Anthropic mencionó recientemente que se detectó a un hacker utilizando herramientas de IA para comprometer sistemas pertenecientes al gobierno de México. Por su parte, OpenAI —el competidor más cercano de la startup— también ha expresado su preocupación sobre los riesgos de seguridad y ha comenzado a implementar programas piloto para asegurar que sus modelos beneficien a los defensores digitales en lugar de a los atacantes.

Fuente: Fuente

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER