No data was found

Empleados ya usan IA sin autorización; directorios siguen en debate

El 7 de abril, la plataforma de inteligencia artificial empresarial WRITER publicó la segunda edición de su estudio AI Adoption in the Enterprise, elaborado junto a la consultora independiente Workplace Intelligence. La encuesta abarcó a 2.400 trabajadores del conocimiento, entre ellos 1.200 ejecutivos y 1.200 empleados, en seis países de Estados Unidos y Europa, en compañías de 100 a más de 10.000 empleados, pertenecientes a 30 industrias.

El hallazgo principal contradice el discurso corporativo habitual. El 29% de los empleados admite sabotear activamente la estrategia de IA de su empresa. En la generación Z, la cifra asciende al 44%. Por su parte, el 76% de los ejecutivos reconoce que el sabotaje interno representa una amenaza seria para el futuro de la organización. El 67% cree que su empresa ya experimentó una filtración de datos debido al uso de herramientas no autorizadas. Esto no es simple resistencia al cambio, sino desobediencia organizada.

Las cuatro formas de sabotaje

WRITER preguntó cómo se manifiesta el sabotaje. Las respuestas dibujan un patrón: cargar información corporativa en herramientas públicas no autorizadas, usar aplicaciones fuera del conjunto aprobado, generar deliberadamente resultados de baja calidad para desprestigiar la IA, y negarse a utilizar las herramientas obligatorias.

El informe de MIT NANDA titulado The GenAI Divide, publicado en julio de 2025, llegó a la misma conclusión por otra vía. El 90% de los empleados encuestados emplea herramientas personales de IA como ChatGPT o Claude para tareas laborales, mientras que solo el 40% de las empresas posee suscripciones oficiales. Existe una economía de IA en la sombra que opera por debajo del radar gerencial. Los trabajadores ya utilizan la tecnología, pero no la que la empresa eligió ni en los términos que esta fijó.

La confianza de los empleados en la estrategia de IA de su empresa cayó del 47% en 2025 al 31% en 2026. En un año, casi la mitad de los trabajadores que confiaba en sus líderes para conducir la transformación dejó de hacerlo.

La brecha entre las estrategias oficiales y el uso real de IA genera una infraestructura paralela en las compañías, con riesgos y oportunidades para la productividad. (Imagen Ilustrativa Infobae)

Por qué la respuesta es racional

El sabotaje suele interpretarse desde la dirección como un problema cultural. Los datos lo describen como una respuesta lógica a un sistema mal diseñado. El 75% de los ejecutivos admite que la estrategia de IA de su empresa es “más para mostrar” que una guía real. El 39% no tiene un plan formal para generar ingresos con IA. El 54% afirma que la adopción está dividiendo a su organización. El 56% reporta luchas de poder internas. El 38% de los CEOs sufre estrés alto o paralizante por la presión de mostrar resultados.

El dato más duro está en el cruce: el 60% de las empresas planea despedir a empleados que no adopten IA. El 77% no promueve a quienes se nieguen a aprenderla. Pero solo el 29% de los ejecutivos ve un retorno significativo de la IA generativa, y el 23% lo ve en agentes. La amenaza se ejecuta sin tener resuelto el caso de uso. El empleado recibe la presión de adoptar una herramienta cuya rentabilidad la propia empresa no ha logrado demostrar. Ante eso, el sabotaje no es traición, sino protección personal contra una decisión gerencial sin fundamento.

El informe del MIT detalla la inversión: las empresas gastaron entre USD 30.000 y USD 40.000 millones en IA generativa, y el 95% de los pilotos no produce un impacto medible en el estado de resultados. Cuando las empresas compran soluciones a proveedores externos, el éxito ronda el 67%. Cuando intentan construir su propia herramienta, cae a un tercio. El instinto corporativo ha sido construir internamente, y la mayoría fracasa.

Empleados utilizan herramientas de inteligencia artificial por fuera del control corporativo, mientras los directorios intentan definir políticas de adopción. (Imagen Ilustrativa Infobae)

El costo ya sobre la mesa

La economía en la sombra tiene un precio. El 67% de los ejecutivos cree que su empresa ya sufrió una filtración de datos por uso de herramientas no aprobadas. El 35% admite que no podría apagar de inmediato un agente de IA descontrolado si empezara a causar daño financiero o reputacional. La infraestructura paralela construida por los empleados desde sus dispositivos personales carece de los controles de seguridad que la empresa exige a su infraestructura oficial. Es eficiente para producir, pero frágil para gobernar.

El choque entre la velocidad de adopción individual y la gobernanza corporativa definirá los próximos veinticuatro meses. El empleado que usa ChatGPT desde su cuenta personal es más productivo que el que espera la suscripción oficial. La empresa que no resuelve cómo integrar esa productividad la ve filtrarse en forma de datos expuestos, decisiones tomadas fuera de la cadena formal y dependencia de modelos que no eligió ni audita.

La adopción de IA empresarial dejó de ser un proyecto que los CEOs aprueban desde arriba y se baja a los equipos. Los empleados ya tomaron su decisión: usan las herramientas que les sirven, ignoran las que no, y construyen una infraestructura paralela que ningún memo gerencial va a desarmar. La pregunta para los directorios ya no es cómo convencer a la gente de adoptar IA, sino cómo recuperar el control sobre una adopción que se hizo sin pedir permiso.

Fuente: Infobae

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER