No data was found

Jóvenes en EE. UU. recurren a la IA para salud mental: riesgos y datos

La adopción masiva de la inteligencia artificial (IA) generativa ha encontrado un nuevo y delicado terreno de aplicación: la salud mental. Según un reciente informe publicado en la revista científica JAMA Network Open, aproximadamente 1 de cada 10 adolescentes y jóvenes adultos en los Estados Unidos utiliza estas herramientas para solicitar orientación psicológica. Esta cifra representa a cerca de 5,4 millones de personas que buscan respuestas en algoritmos.

Este fenómeno se ve impulsado por factores como la disponibilidad inmediata, el ahorro de costos y la privacidad que los usuarios perciben al interactuar con una máquina. Sin embargo, surge en un momento crítico donde el sistema de salud tradicional no logra cubrir la demanda juvenil, dejando a este sector de la población en una situación de vulnerabilidad.

La brecha en el acceso a la atención profesional

Los responsables del estudio enfatizan una realidad alarmante: casi la mitad de los adolescentes que padecen trastornos depresivos severos no cuentan con asistencia médica especializada. Los datos estadísticos revelan que menos del 20% de los jóvenes de entre 12 y 17 años sufrió un episodio depresivo mayor en el último año, y de este grupo, el 40% no recibió ningún tipo de seguimiento profesional.

Interacción entre la juventud y las plataformas de IA

Más de 6 de cada 10 jóvenes utilizan esta tecnología al menos una vez cada mes. (Imagen Ilustrativa Infobae)

La investigación resalta que el uso de estas tecnologías no es esporádico. El 65,5% de los usuarios emplea estas herramientas al menos una vez al mes, lo que confirma un hábito ya instaurado. Además, existe un alto nivel de satisfacción reportado: el 92,7% de los jóvenes que consultaron plataformas como ChatGPT, Gemini y My AI calificaron los consejos obtenidos como

“algo útiles” o “muy útiles”

.

Para llegar a estas conclusiones, se realizó una encuesta representativa entre febrero y marzo de 2025. El equipo de investigación contactó a un total de 2.125 personas, obteniendo respuesta de 1.058 participantes. El diseño del estudio utilizó un lenguaje adaptado para menores desde los 12 años, enfocándose en descubrir si recurren a los chatbots en situaciones de ansiedad, enfado o tristeza buscando soporte emocional.

Motivos detrás de la consulta a sistemas inteligentes

La preferencia por chatbots de inteligencia artificial para tratar temas de salud mental se deriva de factores como la inmediatez, bajo costo y percepción de confidencialidad. (Imagen ilustrativa Infobae)

Los expertos detrás del análisis sugieren que esta alta tasa de dependencia tecnológica se debe a beneficios prácticos y culturales. Para una generación que enfrenta barreras para acceder a la psicología tradicional, la IA ofrece:

  • Inmediatez: Respuestas en tiempo real sin listas de espera.
  • Economía: Bajo o nulo costo en comparación con terapias privadas.
  • Confidencialidad: Sensación de anonimato al no hablar con otro humano.

A pesar de la aceptación de los usuarios, los científicos aclaran que los resultados no confirman la efectividad clínica de estas herramientas. La “utilidad percibida” es una valoración subjetiva y no garantiza que los consejos tengan un impacto positivo real en el bienestar psicológico a largo plazo.

El uso frecuente y subjetivamente útil de chatbots en salud mental no garantiza mejoras clínicas, según advierte el informe. (Imagen Ilustrativa Infobae)

De hecho, se advierte que existe un peligro latente: los jóvenes podrían experimentar una falsa sensación de mejoría, mientras que las patologías o conflictos subyacentes permanecen sin el tratamiento profesional adecuado.

Los peligros detectados por los especialistas

Uno de los puntos más críticos señalados es la inexistencia de supervisión clínica y la falta de estándares de seguridad para el contenido que la IA genera sobre salud mental. Actualmente, no hay marcos de referencia que validen si las recomendaciones de un chatbot son médicamente seguras o precisas.

La falta de estándares clínicos y mecanismos de supervisión en los consejos de salud mental emitidos por IA genera peligros para los jóvenes usuarios. (Imagen Ilustrativa Infobae)

Esta carencia de controles resulta sumamente peligrosa para personas que atraviesan crisis agudas, ya que la inteligencia artificial carece de la capacidad para realizar intervenciones urgentes que solo un especialista humano puede ejecutar.

Finalmente, el estudio menciona la opacidad en los modelos de lenguaje. Es difícil determinar con qué tipo de información han sido entrenados estos sistemas, lo que podría derivar en respuestas sesgadas o erróneas, un riesgo inaceptable cuando se trata de una población tan joven y vulnerable.

Fuente: Fuente

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER