No data was found

Google detecta el primer exploit zero-day creado con IA

La inteligencia artificial ya no se limita a automatizar tareas o a generar contenido; ahora también se emplea para construir ciberataques de alta sofisticación. Especialistas de Google confirmaron que han identificado el primer exploit de tipo zero-day del que se tenga registro, elaborado íntegramente mediante modelos de lenguaje. Este hallazgo abre un nuevo capítulo en la seguridad digital a nivel mundial.

El descubrimiento fue obra del equipo Google Threat Intelligence Group (GTIG), una unidad dedicada a la investigación de amenazas informáticas. De acuerdo con un informe de seguridad divulgado por la compañía, el ataque consistía en un script escrito en Python cuyo objetivo era vulnerar la autenticación en dos pasos (2FA) de una conocida herramienta de administración web de código abierto.

El exploit buscaba saltarse la segunda capa de protección que resguarda cuentas y sistemas, permitiendo a los atacantes acceder incluso cuando las credenciales eran correctas. Google indicó que logró coordinar de inmediato con el proveedor afectado para neutralizar la campaña antes de que se produjera un ataque masivo.

Analistas en un moderno centro de ciberseguridad de Google monitorean pantallas con código Python, gráficos de amenazas y alertas de

La compañía detectó que el código había sido generado mediante inteligencia artificial por varias características poco comunes en el malware tradicional. Entre ellas destacaban errores y “alucinaciones” propias de los modelos de lenguaje, como puntuaciones CVSS inventadas, estructuras excesivamente académicas y fragmentos de documentación demasiado ordenados.

Los investigadores también encontraron docstrings educativos, menús de ayuda detallados y patrones similares a los materiales con los que suelen entrenarse estos sistemas. Este tipo de elementos no suele aparecer en herramientas desarrolladas manualmente por ciberdelincuentes.

Aunque Google no halló evidencias de que se hubiera utilizado Gemini, su propia inteligencia artificial, el caso representa la primera vez que la empresa identifica un exploit de día cero elaborado a través de modelos de lenguaje.

Investigadores de Google analizan posibles ciberataques. (Imagen Ilustrativa Infobae)

El informe también revela que la inteligencia artificial ayudó a descubrir una vulnerabilidad que había pasado desapercibida para las herramientas de seguridad tradicionales. El problema estaba relacionado con una suposición de confianza integrada directamente en la lógica del sistema de autenticación de dos factores.

La aparición de este tipo de ataques confirma una tendencia que los especialistas en ciberseguridad vienen observando desde hace meses: los hackers están incorporando modelos de IA para acelerar procesos que antes requerían grandes cantidades de tiempo y trabajo humano.

Según el GTIG, los ciberdelincuentes utilizan inteligencia artificial para identificar vulnerabilidades, analizar infraestructuras empresariales y desarrollar ataques más precisos. Entre las capacidades detectadas están la generación automática de campañas de phishing personalizadas, el análisis de hardware específico de potenciales víctimas y la creación de perfiles detallados de empresas antes de ejecutar un ataque.

Un hacker encapuchado trabaja frente a múltiples pantallas holográficas en un entorno oscuro y futurista, mientras una inteligencia artificial genera líneas de código automáticamente para un ataque cibernético. (Imagen Ilustrativa Infobae)

Google también advirtió sobre el crecimiento de frameworks agénticos utilizados por grupos vinculados a China y Corea del Norte. Plataformas como Hexstrike y Strix emplean sistemas multiagente capaces de automatizar fases completas de una intrusión informática con una supervisión humana mínima.

Estos sistemas pueden coordinar tareas de reconocimiento, recopilación de datos y preparación de ataques de forma prácticamente autónoma. La IA no solo acelera el desarrollo del malware, sino que también permite crear amenazas más sofisticadas y difíciles de detectar.

Para superar las restricciones de seguridad de los modelos de lenguaje, muchos atacantes recurren al jailbreaking, una técnica que manipula las instrucciones de la IA para obtener respuestas prohibidas. Según Google, algunos hackers utilizan identidades falsas o simulan ser investigadores de seguridad para convencer a los modelos de generar código malicioso o analizar vulnerabilidades.

Un hacker trabaja en un ambiente futurista y oscuro, colaborando con una inteligencia artificial que genera código en múltiples pantallas holográficas con mapas de datos y alertas digitales. (Imagen Ilustrativa Infobae)

En otros casos, alimentan a la inteligencia artificial con repositorios completos de fallos de seguridad y exploits anteriores para mejorar la precisión de los payloads antes de lanzarlos contra objetivos reales.

El informe concluye que el uso ofensivo de la inteligencia artificial dejó de ser una práctica experimental y se está convirtiendo en una metodología cada vez más sistemática dentro del mundo del cibercrimen.

Aunque Google logró frenar este exploit antes de que causara daños masivos, la compañía considera que este caso representa apenas el inicio de una nueva etapa en la evolución de las amenazas digitales. Los especialistas advierten que la combinación entre inteligencia artificial y ciberataques podría aumentar la velocidad, escala y complejidad de futuras operaciones maliciosas en internet.

Fuente: Infobae

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER