Dedicar apenas 10 minutos a interactuar con un chatbot de inteligencia artificial podría ser suficiente para mermar la capacidad de pensar por cuenta propia y de mantener el esfuerzo ante desafíos complejos. Esta es la advertencia central de un reciente estudio académico.
El trabajo, realizado por un equipo de investigadores de Carnegie Mellon, el MIT, Oxford y la UCLA, analizó en un entorno experimental controlado cómo el acceso a asistentes de IA impacta el razonamiento humano en el corto plazo. Los hallazgos fueron contundentes: incluso interacciones breves pueden generar un efecto negativo en la autonomía cognitiva.
Así se diseñó el experimento y qué revelaron los datos
Los investigadores reclutaron a varios cientos de personas a través de una plataforma en línea que les pagaba por participar. A estos voluntarios se les pidió que resolvieran distintos tipos de problemas, desde fracciones sencillas hasta ejercicios de comprensión lectora. El estudio incluyó tres experimentos con grupos separados de participantes.

A un grupo específico se le otorgó acceso a un asistente de IA capaz de resolver los problemas de forma autónoma. Cuando ese asistente fue retirado de manera repentina, estas personas mostraron una tendencia significativamente mayor a abandonar el problema o a fallar en sus respuestas, en comparación con quienes nunca habían tenido acceso a la herramienta. El patrón sugiere que el uso extendido de la IA podría incrementar la productividad inmediata, pero a costa de debilitar habilidades fundamentales para resolver problemas de forma independiente.
La postura del investigador del MIT sobre el impacto cognitivo
Michiel Bakker, profesor adjunto del MIT y coautor del estudio, fue cauteloso al interpretar los resultados. “La conclusión no es que debamos prohibir la IA en la educación o el trabajo”, aclaró.

“Está claro que la IA puede ayudar a las personas a rendir mejor en el momento, y eso puede ser valioso. Pero deberíamos ser más cuidadosos sobre qué tipo de ayuda proporciona la IA, y cuándo”, agregó Bakker. El investigador, quien trabajó anteriormente en Google DeepMind en Londres, explicó que su interés en el tema surgió de un ensayo sobre cómo la IA puede restar poder a los humanos con el tiempo. Ese texto lo llevó a preguntarse si la tecnología ya estaba erosionando las capacidades de las personas, incluso en interacciones breves. Su diagnóstico es preciso: “Se trata fundamentalmente de una cuestión cognitiva: la persistencia, el aprendizaje y la respuesta a las dificultades”. Para Bakker, la disposición de una persona a persistir ante un problema difícil es crucial para adquirir nuevas habilidades y predice su capacidad de aprendizaje a lo largo del tiempo.

El diseño de las herramientas de IA: ¿parte del problema?
Bakker plantea que tal vez sea necesario repensar cómo funcionan los asistentes de IA. A su juicio, al igual que un buen profesor humano, los modelos deberían priorizar en ciertos momentos el aprendizaje del usuario por encima de resolver el problema por él. “Los sistemas que dan respuestas directas pueden tener efectos a largo plazo muy diferentes de los sistemas que ayudan, orientan o desafían al usuario”, señaló. El investigador admite que equilibrar ese enfoque más orientado al aprendizaje podría ser complicado, ya que implica una cierta dosis de lo que él mismo llama una actitud “paternalista” por parte de la herramienta.

Las empresas de IA ya empiezan a considerar estos efectos más sutiles. OpenAI, por ejemplo, ha trabajado en versiones más recientes de GPT para reducir la tendencia de algunos modelos a estar de acuerdo con los usuarios de forma condescendiente, un comportamiento conocido como adulación.
Implicaciones para programadores y sistemas de IA agéntica
La dependencia excesiva de la IA resulta especialmente problemática cuando las herramientas no se comportan como el usuario espera. Los sistemas de IA agéntica, que realizan tareas complejas de forma independiente, son especialmente impredecibles y pueden introducir errores difíciles de detectar. Ese escenario plantea una pregunta concreta sobre herramientas como Claude Code y Codex: ¿qué efecto están teniendo sobre las habilidades de los programadores que, en ocasiones, deben corregir los errores que esas mismas herramientas introducen en el código?
Fuente: Infobae