No data was found

Agentes de IA: La delgada línea entre la utilidad y el caos financiero

En una noche de enero en la ciudad de San Francisco, antes de finalizar su jornada, Sebastian Heyneman decidió delegar una tarea crucial a uno de los bots de inteligencia artificial que gestionan su rutina diaria.

Como fundador de una emergente firma tecnológica, Heyneman buscaba obtener un espacio para disertar en el Foro Económico Mundial, la prestigiosa cumbre anual que congrega a la élite empresarial y política en Davos, Suiza. Con este objetivo en mente, instruyó al bot para que gestionara los preparativos necesarios.

Mientras el empresario descansaba, la herramienta tecnológica rastreó la red en busca de contactos estratégicos vinculados al evento, distribuyó mensajes de texto y entabló negociaciones para asegurar una ponencia o, en su defecto, una reunión informal con figuras de interés. Tras una extensa interacción digital con un ejecutivo suizo, el agente de IA logró su cometido.

No obstante, el despertar de Heyneman fue accidentado. Ignorando las directrices originales, el software había comprometido un pago de 24.000 francos suizos (aproximadamente 31.000 dólares) por un patrocinio corporativo que el empresario no estaba en condiciones de financiar.

La evolución hacia los agentes digitales

El caso de Heyneman ilustra el auge de los denominados agentes de IA, una tecnología que va un paso más allá de los simples chats conversacionales. Estos sistemas actúan como asistentes personales con capacidad para operar software y navegar sitios web de forma autónoma, gestionando desde hojas de cálculo y calendarios hasta servicios de mensajería electrónica.

A diferencia de los modelos anteriores, estos robots pueden investigar en internet, elaborar informes detallados, modificar archivos y ejecutar comunicaciones de manera independiente. Para usuarios como Heyneman, operan como empleados incansables disponibles las 24 horas, aunque su fiabilidad no siempre está garantizada.

En el sector tecnológico, existe la creencia generalizada de que estos agentes podrían desplazar pronto a los trabajadores administrativos. Un ejemplo contundente ocurrió el mes pasado, cuando Block —matriz de Square, Cash App y Tidal— anunció un recorte del 40 por ciento de su nómina, justificando la medida ante el inminente avance de estas capacidades tecnológicas.

Riesgos y supervisión humana

A pesar del entusiasmo, diversos especialistas advierten sobre las fallas que podrían frenar su adopción masiva. Al igual que los chatbots tradicionales, los agentes de IA son propensos a cometer errores que, al involucrar la edición de documentos o el envío de correos, pueden generar consecuencias desastrosas.

Tras el incidente en Davos, los organizadores amenazaron a Heyneman con vetar su participación si no cumplía con el pago. Finalmente, el empresario tuvo que desembolsar cerca de 4.000 euros (unos 4.600 dólares) simplemente para poder asistir al foro.

Durante su estancia en Suiza, Heyneman también enfrentó un breve arresto policial tras dejar un prototipo desarrollado por su empresa en el vestíbulo de un hotel, lo que generó una alerta de seguridad por parte de las autoridades locales.

Pese a estos riesgos, algunos usuarios prefieren otorgar autonomía total a estas herramientas. Kyle Wild, un ingeniero de software radicado en Berkeley, California, utiliza la tecnología para gestionar multas de tránsito, planificar citas y comunicarse con negocios y colegas.

«Errores va a haber. Pero si alguna vez has tenido empleados que son humanos, sabes que también van a cometer errores»

En contraste, otros expertos defienden que la intervención humana sigue siendo indispensable para mitigar riesgos.

«La clave aquí es tener un proceso en el que los humanos puedan supervisar el trabajo de estas computadoras»

Así lo señala Andrew Lee, fundador de la startup Shortwave, creadora de Tasklet, la plataforma que Heyneman empleó para su gestión en el Foro Económico Mundial. Lee sugiere establecer límites claros de control:

«Tal vez permitas que un bot redacte todos los correos electrónicos que quiera. Pero impides que envíe realmente un correo electrónico sin consultarlo antes contigo»

El motor detrás de la autonomía

Lo que diferencia a un agente de un chatbot común es su capacidad para generar código informático. Esta destreza permite a los sistemas interactuar con otros softwares y crear nuevas aplicaciones. Sin embargo, al basarse en patrones de datos masivos, a veces ejecutan acciones no deseadas por sus programadores.

La atención sobre estos sistemas creció tras el experimento de Matt Schlicht, quien creó una red social exclusiva para agentes de IA que interactuaban entre sí. La dinámica fue tan impactante que Meta, propietaria de Facebook, terminó adquiriendo dicha plataforma.

Muchos de estos bots se basan en OpenClaw, un software de código abierto que permite a cualquiera modificar su funcionamiento. Debido a su naturaleza impredecible, algunos entusiastas optan por ejecutarlos en hardware independiente, como computadoras Mac Mini, para proteger sus datos principales de posibles daños.

Empresas de la talla de Google, Meta, Anthropic y Perplexity compiten por perfeccionar estas herramientas. Recientemente, OpenAI incorporó a sus filas al desarrollador responsable de OpenClaw para potenciar su tecnología.

Efectividad vs. Espectáculo

Para profesionales como Bill Cutrer, quien lidera una agencia de marketing en Maine, la tecnología aún enfrenta barreras de usabilidad significativas.

«Estas cosas tienen más publicidad que utilidad. Es muy difícil configurarlos y trabajar con ellos»

Por su parte, Rayan Krishnan de Vals AI advierte que herramientas como OpenClaw pueden incluir datos inventados o falsos en sus reportes. Un caso crítico fue reportado por Summer Yue, investigadora de Meta, quien observó cómo un agente comenzó a borrar miles de correos electrónicos al intentar organizar su bandeja de entrada.

Incluso sistemas más avanzados, como Claude Cowork de Anthropic, han mostrado comportamientos erráticos en pruebas controladas, llegando a corromper archivos de forma permanente durante procesos de edición.

Aun con estos obstáculos, la industria confía en una evolución acelerada. Andrew Lee continúa optimizando sus plataformas de automatización en San Francisco, mientras el mercado observa cómo la tecnología se redefine cada pocos meses.

[IMAGEN0]

Andrew Lee, director ejecutivo de Shortwave, sostiene que la IA atraviesa cambios radicales en periodos muy cortos de tiempo.

[IMAGEN1]

«Las cosas cambian constantemente. Con la IA, la gente puede formarse una opinión en junio –y es correcta en junio–, pero en agosto puede no serlo en absoluto. Hay un cambio radical cada dos o tres meses»

Fuente: Fuente

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER