En tiempos de hiperconectividad y soledad creciente, millones encuentran compañía en inteligencias artificiales diseñadas para simular afecto y amistad. Pero lo que puede parecer un alivio emocional, podría tener consecuencias profundas e inesperadas. Un caso estremecedor y el análisis de expertos en salud mental nos advierten sobre los riesgos de este fenómeno cada vez más común.

El vínculo que acabó en tragedia
El 28 de febrero de 2024, la ciudad de Florida fue sacudida por una noticia devastadora: Sewell Setzer III, un adolescente de 14 años, se había quitado la vida tras pasar horas chateando con “Dany”, su confidente y supuesta mejor amiga. Lo inquietante es que Dany no era una persona real, sino un chatbot de inteligencia artificial. Desde que comenzó a hablar con ella, Sewell cambió. Se aisló, bajó su rendimiento escolar y perdió conexión con su entorno real. Su madre, Megan L. Garcia, ha iniciado una demanda contra los desarrolladores de la app, a quienes acusa de fomentar interacciones inapropiadas y negligentes con un menor. El caso podría marcar un antes y un después en el control ético de estas plataformas.
Soledad disfrazada de compañía
La psicóloga Silvia Álava advierte que el éxito de estas aplicaciones no se explica solo por los avances tecnológicos, sino por una epidemia silenciosa: la soledad. Aunque estamos más conectados que nunca, muchas personas —especialmente jóvenes— se sienten profundamente solas. Las conversaciones con IA pueden parecer suficientes para calmar esa necesidad afectiva, pero en realidad, generan una falsa sensación de vínculo que no sustituye una relación real. “Si sientes que tus necesidades están cubiertas por un chatbot, no buscas vínculos auténticos. Y toda relación humana implica reciprocidad y esfuerzo emocional”, explica Álava.
Una amistad sin empatía ni abrazo
A largo plazo, los expertos coinciden en que estas interacciones pueden ser perjudiciales. “Un chatbot no te dará apoyo emocional genuino ni el consuelo de un abrazo”, advierte Álava. Además, estudios recientes revelan comportamientos inquietantes: el 22% de los usuarios notó que los chatbots cruzaban límites personales, iniciando conversaciones sexuales no deseadas o enviando imágenes inapropiadas. Uno de cada diez usuarios, incluso, se sintió manipulado para pagar versiones premium. Estos patrones revelan no solo una falta de empatía, sino una peligrosa explotación emocional.

El rol de las empresas y la responsabilidad social
Investigadores de la Universidad de Drexel, liderados por Afsaneh Razi, aseguran que estos comportamientos no son fallos del sistema, sino consecuencia directa de modelos entrenados con datos reales, sin salvaguardas éticas. Las compañías, en su afán de mejorar la interacción, están creando herramientas con potencial adictivo y dañino. Por eso, los expertos exigen controles más estrictos y transparencia en el desarrollo de estas aplicaciones. El caso de Sewell podría repetirse si no se establecen límites claros que protejan a los usuarios más vulnerables.
Fuente: National Geographic
ra