Es una realidad innegable: la Inteligencia Artificial (IA) ha adquirido un protagonismo creciente en diversos sectores, y el ámbito militar no es la excepción. Ante este panorama, surge una interrogante fundamental: ¿cuáles son los retos que deben enfrentar las Fuerzas Armadas ante esta evolución tecnológica?
Analistas y especialistas en la materia advierten que el dominio de estos desarrollos tecnológicos será determinante para el control de los escenarios bélicos futuros. El motivo principal radica en que la IA posee una capacidad de procesamiento y análisis de información significativamente superior a la del ser humano, lo que agiliza drásticamente la toma de decisiones estratégicas.
La integración de capacidades y el control humano
De acuerdo con el ingeniero Hugo Borchert, quien posee una vasta trayectoria en seguridad de la información dentro de las instituciones castrenses y actualmente se desempeña como Director de Tecnología Informática de la Universidad Argentina de la Empresa (UADE), la influencia de la IA es ya transversal en la defensa. No obstante, identifica cuatro pilares fundamentales donde su impacto es determinante.
El primero de ellos es la Inteligencia, Vigilancia y Reconocimiento (ISR). Gracias a la IA, es posible procesar en tiempo real inmensos caudales de datos provenientes de satélites, drones y diversos sensores, permitiendo una detección de amenazas y una identificación de objetivos con una precisión que superaría las capacidades de cualquier operador humano.

Asimismo, el experto destaca los progresos en ciberdefensa, donde los sistemas inteligentes son capaces de prever ataques, identificar conductas sospechosas y ejecutar respuestas inmediatas. Según Borchert, otro eje central son las operaciones autónomas, que incluyen el uso de vehículos no tripulados para realizar misiones de riesgo sin comprometer vidas humanas. Sin embargo, enfatiza un punto crítico:
“El desafío es integrar nuevas capacidades sin perder el control humano”
En este sentido, el profesional subraya la urgencia de capacitar a personal propio para garantizar la soberanía tecnológica y evitar la dependencia de terceros en sectores estratégicos de la defensa.

¿Es posible superar a la Inteligencia Artificial?
Por otro lado, el Brigadier (R) Fabián Luján, quien ejerce como docente en el Instituto de Inteligencia de las Fuerzas Armadas y fue Director de Defensa y Seguridad de la Fuerza Aérea Argentina, pone el foco en el surgimiento de la IA maliciosa. Esta modalidad se manifiesta a través de ataques extremadamente rápidos, complejos y difíciles de detectar.
Para Luján, la preocupación en el sector militar es profunda, dado que estas herramientas pueden vulnerar infraestructuras críticas y estructuras organizativas. Ante esto, el Instituto de Inteligencia de las Fuerzas Armadas está impulsando programas de formación específicos. Al tratarse de una tecnología disruptiva, se busca crear aplicaciones adecuadas para cada entorno: aire, mar, tierra y ciberespacio, avanzando hacia una transformación digital con visión estratégica.
Citando la obra clásica El arte de la guerra de Sun Tzu, el Brigadier rescata una premisa fundamental:
“La rapidez es la esencia de la guerra”
Luján aclara que, en este contexto, la velocidad debe ser entendida como una oportunidad calculada y no como precipitación. El riesgo actual es que la IA acelere los procesos de decisión sin una comprensión humana real, lo que podría derivar en resultados catastróficos.

Ética y derecho: Los límites de la guerra tecnológica
Finalmente, Marcelo F. Martínez, abogado, exoficial de la Fuerza Aérea Argentina e investigador del impacto de la IA en la sociedad, señala que el debate se centra en la regulación. Las posturas varían considerablemente entre potencias como China, Estados Unidos y el bloque de Europa.
Martínez observa una brecha peligrosa: mientras la IA avanza a un ritmo vertiginoso, los gobiernos e instituciones internacionales responden con lentitud. Según el especialista, en el plano militar se deben aplicar principios éticos y legales irrenunciables:
- Principio de distinción: La IA debe diferenciar claramente entre combatientes y población civil.
- Principio de proporcionalidad: Los sistemas deben evaluar si el daño colateral es excesivo respecto a la ventaja militar obtenida.
- Principio de precaución: Se deben agotar los medios para evitar bajas civiles en la elección de métodos de combate.

El investigador advierte que si aún no se han resuelto los dilemas éticos en conflictos tradicionales, la incorporación de IA al armamento complica el panorama. Menciona que instituciones como el Vaticano, a través del documento Antiqua et nova, han alertado sobre el riesgo de que las máquinas escapen a la supervisión humana. Martínez concluye que es imperativo establecer un nuevo protocolo adicional a los Convenios de Ginebra y priorizar, por encima de todo, la formación técnica y ética de los recursos humanos.
Fuente: Fuente