El incendio que cambió la forma de entender el riesgo
En agosto de 1949, un grupo de quince bomberos paracaidistas se lanzó sobre un incendio forestal en Mann Gulch, Montana. Se unieron a un guarda forestal que ya estaba en la zona, conformando un equipo de dieciséis hombres sin experiencia previa de trabajo conjunto. En menos de una hora, el viento cambió drásticamente y las llamas avanzaron a una velocidad inesperada.
El líder, Wag Dodge, tomó una decisión que parecía irracional: encendió un fuego frente a él sobre el pasto seco y ordenó a sus compañeros que arrojaran sus herramientas y se acostaran en esa área ya quemada. Esta técnica, luego conocida como “fuego de escape”, no tenía antecedentes formales. Nadie la siguió. Dodge sobrevivió, otros dos lograron escapar por una grieta, y trece perdieron la vida.
Años después, el teórico organizacional Karl Weick analizó el suceso y concluyó que el fallo no fue técnico ni de información, sino de sentido. Un equipo sin vínculos previos, en un terreno que no comprendían del todo, frente a una estrategia que no pudieron interpretar a tiempo.
En situaciones de alta incertidumbre, las organizaciones no fallan por falta de datos, sino por la incapacidad de reinterpretar la realidad cuando las referencias conocidas dejan de funcionar. A esa capacidad de construir sentido en condiciones nuevas la llamó sensemaking.
Cuando el sentido colapsa, tener más información no basta. Se requiere liderazgo, criterio y la disposición a soltar lo que hasta hace un minuto parecía inamovible. Esta idea resuena hoy con fuerza: muchas fallas que atribuimos al sistema son, en el fondo, fallas humanas de diseño, cultura y pensamiento frente a lo inesperado.
El caso McKinsey: una vulnerabilidad que nadie imaginó
El 28 de febrero, la startup de ciberseguridad CodeWall desplegó su agente autónomo de inteligencia artificial para explorar la infraestructura de la consultora McKinsey & Company. En dos horas, con un costo de cómputo de aproximadamente veinte dólares y sin intervención humana, el agente logró acceso de lectura y escritura a la base de datos productiva de Lilli, la plataforma interna de IA de la firma. Solo quince iteraciones bastaron para encontrar una vulnerabilidad que dos años de escaneos convencionales no habían detectado.
Lo alarmante no es solo la rapidez, sino lo que se expuso: cuarenta y seis millones de mensajes internos, cientos de miles de archivos y, lo más crítico, los archivos que definen cómo razona el sistema: noventa y cinco instrucciones internas distribuidas en doce modelos. Estas podían reescribirse sin generar despliegues, sin dejar rastro y sin disparar alertas.
McKinsey corrigió la falla en horas y aseguró que ningún dato de clientes salió del edificio. Sin embargo, pensar que esto es un incidente aislado sería un error sistémico. No se trata de una empresa descuidada, sino de una radiografía de cómo se construyen hoy casi todos los sistemas de inteligencia artificial empresariales. Este caso elimina el último refugio: creer que estas vulnerabilidades solo afectan a quienes no prestan atención.
El nuevo frente de batalla: la lógica del sistema
Durante años, la seguridad se centró en proteger datos y documentos. Pero el valor se ha desplazado hacia algo mucho más difícil de ver: las instrucciones que estructuran cómo una IA decide qué responder. Cuando esa lógica reside dentro del mismo perímetro que los datos, una sola falla no expone información, sino que altera la forma en que el sistema interpreta todo lo que procesa. Un atacante ya no necesita llevarse nada; le basta con modificar en silencio cómo el sistema entiende lo que ve.
Aquí vuelve el problema humano. No el error del técnico que ejecuta mal, sino el del líder que asume que ciertos escenarios son improbables, que lo crítico está separado, que el marco de seguridad sigue siendo el correcto. Es Mann Gulch a escala digital: equipos que no se conocen del todo decidiendo en tiempo real sobre arquitecturas que evolucionan más rápido que la experiencia acumulada para evaluarlas. El antiguo marco de datos, perímetro y accesos se diseñó para un mundo donde la lógica del sistema no se podía editar. Ese mundo ya no existe, y aún no terminamos de procesarlo.
Las preguntas que todo líder debe hacerse
La respuesta no es contratar más expertos en ciberseguridad. Es empezar por tres preguntas que hoy pocos pueden responder con precisión, incluso en grandes corporaciones globales:
- ¿Dónde vive la lógica de mis sistemas de IA y quién puede modificarla?
- ¿Qué pasa si esa lógica se altera sin que nadie lo note?
- ¿Cuándo fue la última vez que alguien en el directorio revisó eso?
No son preguntas técnicas, sino de gobierno. Si no tienen respuesta clara, el perímetro no importa demasiado.
La velocidad como nueva asimetría
El agente autónomo encontró la vulnerabilidad en quince iteraciones, mientras que dos años de escaneo humano no lo lograron. No porque piense mejor, sino porque puede probar miles de combinaciones sin fricción ni cansancio. Esa asimetría ya no es teórica: es operativa.
Por eso la discusión ya no pasa por reforzar el perímetro, sino por diseñar sistemas con gobernanza desde el origen. El valor no está solo en los datos, sino en la lógica que los interpreta, y esa lógica debe tratarse como un activo crítico: separada, auditada y monitoreada con el mismo rigor que cualquier información sensible.
Un llamado para directorios y líderes
Los directorios de empresas que operan con contrapartes internacionales ya empiezan a recibir preguntas sobre gobernanza de IA que antes no llegaban. Lo que hace dos años parecía un debate técnico se está convirtiendo en un criterio de evaluación de socios, proveedores y clientes. Esa conversación no espera a que cada país tenga un marco regulatorio propio.
La verdadera pregunta no es si estos sistemas van a fallar. Eso, en algún momento, ocurrirá. Es si, cuando ocurra, seremos capaces de darnos cuenta a tiempo. Porque cuando lo que se altera no son los datos sino el sentido, el riesgo deja de ser técnico y pasa a ser, como en Mann Gulch, profundamente humano.
Fuente: Infobae