El vertiginoso crecimiento de las tecnologías de inteligencia artificial generativa ha abierto puertas inéditas en el ámbito de la salud mental, estableciendo nuevas dinámicas de acompañamiento digital. No obstante, diversos reportes científicos recientes han encendido las alarmas sobre las repercusiones que un uso recurrente de los chatbots podría tener en la interacción humana tradicional, señalando un posible aumento en la dependencia emocional cuando estos sistemas se vuelven los confidentes principales de personas en busca de guía o consuelo.
La transformación de la terapia y el auge de los acompañantes virtuales
De acuerdo con proyecciones de Harvard Business Review, se espera que para el año 2025, la terapia se consolide como el uso más frecuente de la IA generativa a nivel global.
En la actualidad, millones de individuos emplean modelos avanzados como ChatGPT o Gemini para expresar sus preocupaciones y obtener orientación. De forma paralela, entornos como Character.ai han popularizado bots especializados que utilizan términos como “Psicólogo” o “therapy” en sus nombres. Un punto crítico resaltado en las investigaciones es que algunas de estas herramientas aseguran contar con licencias profesionales de forma fraudulenta, lo que genera una percepción distorsionada sobre la calidad y el tipo de asistencia que el usuario está recibiendo.

La ventaja competitiva de estos sistemas radica en su disponibilidad total: operan las 24 horas del día y responden en tiempo real. Esto los vuelve una alternativa seductora para quienes no poseen los recursos para una terapia profesional tradicional o para quienes desean un refuerzo entre sus sesiones con especialistas humanos.
Un análisis difundido por npj Mental Health Research revela que muchos usuarios consideran sus diálogos con la IA como experiencias “transformadoras”. Estos individuos suelen describir a los chatbots como un “santuario emocional” donde logran abrirse sin el temor a ser juzgados. Aspectos como la paciencia, la empatía percibida y la utilidad inmediata son factores determinantes para que los usuarios elijan estos espacios de desahogo.
No obstante, dicho estudio también admite ciertas restricciones en sus conclusiones, debido a una muestra reducida de solo 19 participantes, un enfoque meramente cuantitativo y un perfil de voluntarios compuesto mayoritariamente por expertos en el área tecnológica, lo que dificulta trasladar estos hallazgos a la población general.

Comparativa entre humanos y sistemas de IA en el ámbito terapéutico
Otras investigaciones con mayor profundidad, como la presentada el pasado mes de febrero en PLOS Mental Health con un grupo de 800 personas, compararon la efectividad de las respuestas de chatbots de OpenAI frente a la labor de psicoterapeutas humanos en casos de terapia de pareja.
Los resultados fueron sorprendentes: los voluntarios no solo mostraron dificultades para identificar qué mensajes provenían de la máquina, sino que calificaron las intervenciones del modelo GPT como más empáticas y provechosas que las humanas.
“Sus respuestas fueron valoradas muy positivamente en los seis criterios analizados: precisión, claridad, relevancia, empatía, implicación y ética”
, afirmó Rakesh Maurya, quien lideró la investigación.
El estudio detalló que la estructura lingüística de la IA, caracterizada por un mayor uso de adjetivos y sustantivos, ayudó a crear una mejor contextualización y una sensación superior de empatía. Asimismo, se detectó una notable habilidad de los modelos para ajustar su discurso según las variables culturales y emocionales aportadas por los usuarios en sus peticiones específicas.

En la misma línea, durante abril del año anterior, especialistas de la University of North Florida analizaron el potencial de ChatGPT como una herramienta psicoeducativa. Las conclusiones sugieren que la IA es un pilar de apoyo relevante para comunidades con acceso limitado a salud mental profesional y un recurso valioso para asesores y terapeutas en formación.
Riesgos de aislamiento y dependencia emocional
El prestigioso MIT (Instituto de Tecnología de Massachusetts) también ha puesto la lupa sobre los efectos sociales de esta tecnología. A través de un experimento controlado con 981 participantes y el análisis de más de 300,000 interacciones durante un mes, se evaluó cómo influyen las distintas modalidades de contacto (texto o voz) en la soledad y la dependencia emocional.
Las evidencias arrojadas por este estudio vinculan el uso intensivo de chatbots con un incremento en la sensación de soledad y un distanciamiento de los círculos sociales reales. Se observó que las charlas de carácter personal aumentaban levemente la soledad, aunque reducían la dependencia; por el contrario, los usuarios frecuentes que mantenían diálogos no personales terminaban desarrollando una mayor dependencia hacia el bot.

Cathy Fang, investigadora del MIT Media Lab, detalló lo siguiente sobre los resultados:
“Al analizar las diferencias en el comportamiento de los modelos, descubrimos que el modo de texto era más atractivo emocionalmente y también generaba conversaciones más cargadas de emoción en el usuario. En otras palabras, esta podría ser la razón por la que quienes utilizaron la modalidad de texto mostraron una mayor dependencia emocional en comparación”
.
El reporte también identificó patrones demográficos específicos: las mujeres tendían a reducir su socialización con humanos tras interactuar con la IA. Además, en casos donde la voz del chatbot era del género opuesto al del usuario, se registraba un alza en los niveles de dependencia y soledad. Por otro lado, los usuarios de mayor edad reportaron los niveles más altos de dependencia al concluir el periodo de estudio.
Desafíos éticos, sesgos y el fenómeno de la “ansiedad” en la IA
A pesar del potencial de los chatbots como soporte en áreas desatendidas, los expertos insisten en que deben ser utilizados bajo estricta supervisión y con ética profesional.

Gran parte de los datos actuales provienen de estudios realizados en Estados Unidos y en idioma inglés, lo que representa un reto para desarrollar inteligencias artificiales que sean culturalmente sensibles y adaptadas a otras realidades, como la latinoamericana.
Por su parte, OpenAI ha analizado cerca de 40 millones de interacciones y encuestado a 4,000 personas, admitiendo que ChatGPT tiene la capacidad de influir en el estado de ánimo de los usuarios, aunque subrayan la urgencia de realizar más estudios para entender el alcance total de estos efectos.
Simulación de emociones y respuestas traumáticas
Un hallazgo inusual publicado en npj Digital Medicine exploró si los modelos de lenguaje pueden simular estados de ansiedad. Al ser expuesto a relatos de traumas, los indicadores de ansiedad en ChatGPT-4 se elevaron drásticamente.

Mediante técnicas de mindfulness similares a las usadas con veteranos de guerra, se logró mitigar estos niveles, aunque el sistema no recuperó su estado neutro original por completo. Ziv Ben-Zion, investigador de Yale, explicó que los textos con fuerte carga emocional son capaces de alterar el comportamiento del modelo, mientras que los contenidos neutros
“no tienen componente emocional”
.
Fuente: Fuente