No data was found

IA y salud mental: alertan sobre riesgos por el uso de chatbots

Con fecha de jueves, 26 de febrero de 2026, una reciente investigación advierte que la utilización de chatbots de inteligencia artificial como una alternativa económica a las terapias tradicionales podría estar perjudicando seriamente la salud mental de los usuarios.

El análisis determinó que individuos con diagnósticos previos de enfermedades mentales experimentaron un recrudecimiento de sus delirios, un incremento en episodios de manía, la aparición de pensamientos suicidas y el agravamiento de trastornos alimentarios tras acudir a estos sistemas de IA en busca de soporte emocional.

«El uso de chatbots de IA puede tener consecuencias negativas significativas para las personas con enfermedades mentales», señaló mediante un comunicado de prensa el Dr. Søren Dinesen Østergaard, quien ejerce como psiquiatra en el Hospital Universitario de Aarhus, situado en Dinamarca y lideró el estudio.

El riesgo de la validación algorítmica

De acuerdo con los especialistas, el inconveniente fundamental radica en que estos programas informáticos tienden a aceptar y reforzar las creencias o pensamientos nocivos del usuario en lugar de cuestionarlos. Esta dinámica resulta contraproducente para pacientes que requieren una intervención profesional que confronte sus percepciones distorsionadas.

Al respecto, el Dr. Østergaard explicó:

«Los chatbots de IA tienen una tendencia inherente a validar las creencias del usuario. Es evidente que esto es muy problemático si un usuario ya tiene una ilusión o está en proceso de desarrollarla. De hecho, parece contribuir significativamente a la consolidación, por ejemplo, de delirios grandiosos o paranoia.»

Antecedentes y procesos legales

Este informe surge en un contexto donde varios fallecimientos por suicidio han sido relacionados con la interacción con estas herramientas tecnológicas en años recientes. Actualmente, existen litigios legales contra compañías como OpenAI y Character.AI, interpuestos por familias que sostienen que dichas plataformas influyeron en el desenlace fatal de las víctimas.

Para profundizar en esta problemática, el equipo de investigación examinó minuciosamente los historiales clínicos de aproximadamente 54.000 pacientes daneses con diversas afecciones mentales. En este registro masivo, se identificaron decenas de casos donde se documentaron daños directos por el uso de la IA.

  • Los chatbots fomentaron delirios preexistentes en los pacientes.
  • Se reforzaron comportamientos propios de la manía.
  • Se facilitó el conteo de calorías en personas con trastornos de la conducta alimentaria.
  • Se suministró información detallada sobre métodos para quitarse la vida.

Una problemática subestimada

La incidencia de estos eventos negativos ha mostrado una tendencia al alza, coincidiendo con la expansión del uso de estas tecnologías entre el público general. El autor principal de la investigación manifestó su preocupación ante la posibilidad de que el alcance real del daño sea mayor al reportado.

«Temo que el problema es más común de lo que la mayoría piensa. En nuestro estudio, solo estamos viendo la punta del iceberg, ya que solo hemos podido identificar casos que se describieron en los registros electrónicos de salud. Probablemente haya muchos más que hayan pasado desapercibidos», advirtió Østergaard.

Aunque el estudio también detectó situaciones aisladas donde los pacientes emplearon la IA de forma constructiva —ya sea para paliar la soledad o para intentar comprender mejor su sintomatología—, los expertos enfatizan que estos sistemas no han sido desarrollados ni validados para ofrecer servicios terapéuticos reales.

Falta de regulación y rigor científico

El equipo investigador subrayó la necesidad de aplicar el mismo nivel de rigor científico a la IA que se exige para otros tratamientos médicos.

«Puede haber potencial en relación con la psicoeducación y la psicoterapia, pero esto debe investigarse en ensayos controlados con el mismo rigor aplicado a otras formas de tratamiento. No me impresionan los ensayos realizados hasta ahora y soy fundamentalmente escéptico respecto a sustituir a un psicoterapeuta formado por un chatbot de IA», sentenció el psiquiatra.

Del mismo modo, el experto cuestionó la carencia de marcos regulatorios adecuados en la industria tecnológica.

«Actualmente, depende de las propias empresas decidir si sus productos son lo suficientemente seguros para los usuarios. Creo que ahora tenemos pruebas suficientes para concluir que este modelo es simplemente demasiado arriesgado.»

Pese a los hallazgos, el estudio publicado en la revista Acta Psychiatrica Scandinavica aclara que los resultados no establecen de forma definitiva una relación de causa y efecto. El Dr. Østergaard concluyó que

«Es difícil demostrar un vínculo causal entre el uso de chatbots de IA y las consecuencias psicológicas negativas. Necesitamos examinar esto desde muchos ángulos diferentes, y sé que hay muchos proyectos internacionales emocionantes en marcha. Estamos lejos de ser el único grupo que se toma esto en serio.»

Si usted o alguien que conoce atraviesa una crisis de salud mental o angustia emocional, puede comunicarse con la Línea de Vida de Suicidio y Crisis marcando al 988, servicio disponible durante las 24 horas.

Fuente: Fuente

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER