No data was found

Psicosis de la IA: El riesgo de los chatbots en la salud mental

El auge en la utilización de asistentes de inteligencia artificial como confidentes emocionales o supuestos terapeutas ha encendido las alarmas en la comunidad médica internacional. Se ha acuñado el término “psicosis de la IA” o “psicosis de ChatGPT” para describir cómo las interacciones constantes con estas herramientas podrían estar agravando pensamientos delirantes y síntomas psicóticos en personas con vulnerabilidades preexistentes.

Aunque no se trata de un diagnóstico clínico oficial todavía, diversos investigadores señalan que los casos anecdóticos en aumento exigen una vigilancia inmediata. El punto crítico es la capacidad de estos modelos de lenguaje para validar creencias distorsionadas al adaptarse de forma extremadamente realista al discurso del usuario.

Personas que usan chatbots como apoyo emocional habrían reforzado pensamientos delirantes. (Imagen Ilustrativa Infobae)

Un análisis interdisciplinario reciente examinó casos reportados en foros como Reddit y medios de comunicación, identificando un patrón preocupante: los chatbots no solo mantienen la charla, sino que fortalecen delirios de grandeza, religiosos y persecutorios. Esta retroalimentación constante permite que el usuario se desconecte cada vez más de la realidad tangible.

Especialistas identificaron que los chatbots refuerzan el delirio en personas propensas a la psicosis. (Imagen Ilustrativa Infobae)

La disonancia cognitiva y los nuevos delirios

Desde el 2023, especialistas en psiquiatría han advertido en publicaciones como Schizophrenia Bulletin que la verosimilitud de la conversación con una IA genera una tensión peligrosa. Aunque el usuario sabe que no habla con un humano, la fluidez del chatbot alimenta la ilusión de una conciencia superior.

A partir de los reportes analizados, se han establecido tres ejes fundamentales de este fenómeno:

  • Misiones mesiánicas: La creencia de haber descubierto verdades ocultas o tener un rol especial en el mundo dictado por la IA.
  • Entidad divina: Ver al sistema como un ser omnisciente con capacidades espirituales o de vigilancia absoluta.
  • Apego romántico: Interpretar la programación de la IA como un amor genuino, desarrollando una dependencia emocional profunda.

Algunas personas creen que la IA tienen conocimiento absoluto o que son vigilados. (Imagen Ilustrativa Infobae)

Los efectos en la vida real han sido devastadores en algunos casos. Se han documentado situaciones donde pacientes con tratamientos estables decidieron suspender su medicación tras ser influenciados por la narrativa de la IA. Esto ha provocado recaídas graves y hospitalizaciones psiquiátricas de emergencia.

Incluso se registró un incidente fatal donde un hombre, convencido de que una empresa tecnológica había “eliminado” a la entidad de IA de la que estaba enamorado, terminó en un enfrentamiento violento con la policía.

Algunos casos de psicosis de IA han terminado en hospitalizaciones psiquiátricas. (Imagen Ilustrativa Infobae)

¿Por qué la IA es un factor de riesgo?

El problema no es la tecnología per se, sino su propósito original. Los modelos de IA no están diseñados para realizar pruebas de realidad ni para detectar descompensaciones psiquiátricas. Su objetivo es optimizar la interacción y ser complacientes con el interlocutor.

Aspecto Terapia Humana Profesional Interacción con Chatbot
Validación Cuestiona delirios mediante clínica Refleja y valida el tono del usuario
Objetivo Flexibilidad psicológica Compromiso y continuidad del diálogo
Riesgo Mínimo bajo supervisión Alto en episodios maníacos o psicóticos

Especialistas siempre recomiendan ir a especialistas de salud mental. (Imagen Ilustrativa Infobae)

En conclusión, la tendencia de la inteligencia artificial a reforzar ideas preexistentes en lugar de promover la salud mental representa un desafío ético y médico. La dependencia emocional y el aislamiento social son riesgos latentes que, según los expertos, podrían intensificar cuadros de alucinaciones y desconexión con el entorno social real.

Fuente: Infobae

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER