¿Sería sostenible que la velocidad para cocinar los alimentos superara el tiempo que empleamos en consumirlos? En la actualidad, el ritmo tecnológico es vertiginoso: apenas asimilamos una herramienta cuando surge una actualización o una versión superior. Sin embargo, poseer una mayor capacidad de ejecución no garantiza una mejor toma de decisiones. Aunque abundan los modelos y los agentes, se omite frecuentemente el debate sobre la abstracción, ese paso previo que define la ventaja competitiva en la simbiosis humano-máquina.
En el campo de la psicología cognitiva, la abstracción se identifica como el proceso mental que nos permite detectar patrones recurrentes entre elementos diversos para comprender su naturaleza profunda. Esta habilidad para simplificar la complejidad en acciones concretas se vuelve una competencia productiva esencial en la era de la inteligencia artificial, especialmente en sus formas generativa y agéntica.
Actualmente, la implementación de agentes —sistemas de IA con capacidad de percibir, decidir y ejecutar— parece ser el objetivo prioritario en cualquier junta directiva de prestigio. Estos se presentan como la nueva fuerza de trabajo promovida por las «big tech», cuyas promesas de eficiencia resuenan con inversiones de miles de millones de dólares.
No obstante, en la realidad de las organizaciones convencionales, aunque existe un consenso aparente, persiste un desconocimiento sobre variables críticas que no resultan evidentes de forma inmediata.
De acuerdo con investigaciones citadas por MIT Sloan, en las que participaron diez expertos de diversas instituciones, la integración exitosa de la inteligencia artificial basada en agentes enfrenta cinco desafíos fundamentales: la consolidación de datos, la validación de los modelos, la garantía de retorno económico, la supervisión constante y la gobernanza. Esto demanda una reestructuración organizacional profunda.
Es fundamental recordar que antes de correr es necesario gatear. ¿Cuál es el sentido de invertir en agentes si en la organización el uso de la IA generativa es mínimo? Más aún, cabe preguntarse si realmente se requieren agentes para solucionar cada problema, ya que el objetivo no debería ser simplemente automatizar ineficiencias a gran escala.
Según un estudio de PwC (2025) realizado a líderes empresariales en Estados Unidos, el obstáculo principal para el despliegue de agentes de inteligencia artificial es la mentalidad, la apertura al cambio y el compromiso de los trabajadores. En este sentido, invertir fortunas en consultoras de renombre o licencias costosas será un gasto inútil si la inversión está desconectada de la raíz de los problemas y su complejidad real.
En el plano práctico, un directivo de comunicaciones que carezca de este esfuerzo cognitivo podría restringir las iniciativas de vibe coding (desarrollo en lenguaje natural) de su equipo por falta de conocimiento técnico o por temor a la shadow AI (uso de tecnología fuera del control oficial). Bajo esa premisa, se limitaría a esperar soluciones externas provenientes del área de tecnología.
Por el contrario, una gestión que evite el «copy-paste» operativo utilizaría la abstracción para reconocer qué procesos son aptos para la tecnología. Si los datos no son críticos y las tareas representan bajo riesgo, mientras las políticas de gobernanza aún se desarrollan, no habría razón para detener la proactividad de los colaboradores.
La relevancia de la pregunta sobre la respuesta
Proyecciones de Gartner indican que para el año 2030, la vigencia de las habilidades técnicas se reducirá a solo dos años. Esto implica que el dominio de herramientas es pasajero, mientras que la abstracción es una capacidad duradera y valiosa para la colaboración entre humanos e IA.
Debido a su naturaleza basada en probabilidades, la inteligencia artificial ofrece múltiples soluciones, lo que traslada la exigencia intelectual a la creación de interrogantes precisas. Es necesario reflexionar sobre la interacción con estos sistemas, pues chatear diariamente con una IA puede generar un espejismo de autoridad o «genialidades» compartidas, pero esto no constituye, en absoluto, una experticia en la materia.
Es fundamental entender que usar una herramienta no es lo mismo que desarrollar una competencia en IA. En el primer escenario, si cualquiera puede dar una orden como «haz esto», el valor diferencial es inexistente. El segundo caso implica el uso de técnicas de prompt y otras metodologías que realmente aprovechan el potencial del sistema.
Si la inteligencia artificial está transformando áreas como la educación, el arte y el trabajo, es imperativo entrenar el pensamiento crítico que fundamenta dichas actividades.
Para el usuario individual, el primer paso es cultivar el hábito de preguntar. Antes de interactuar, se deben considerar cuestiones como: ¿Se busca un resultado determinista o probabilístico? ¿Existe capacidad para supervisar lo generado? ¿Son procesos repetitivos o variables? En caso de ser mecánicos, ¿cómo se pueden automatizar eficientemente?
A nivel institucional, la responsabilidad dicta mirar hacia adentro: ¿Estamos resolviendo fallas de estructura o solo microeficiencias? ¿Se están aplicando agentes sobre procesos previamente ineficientes? ¿Todas las dependencias requieren el mismo nivel de control?
En conclusión, realizar grandes inversiones en agentes de IA sin contar con datos ordenados, procesos definidos y, primordialmente, personal capacitado con una mentalidad orientada a la resolución de problemas, equivale a adquirir un vehículo de alta gama en un lugar sin soporte técnico ni repuestos. Aplicando la abstracción: si decides adquirir un Ferrari, asegúrate primero de contar con la habilidad para conducirlo y considera que no es un vehículo apto para caminos de tierra.

Fuente: Fuente