La incorporación masiva de la inteligencia artificial en la cotidianidad ha transformado radicalmente el modo en que los individuos gestionan su apoyo emocional y resuelven conflictos internos. Plataformas como ChatGPT se han vuelto parte esencial de la rutina de muchos, operando como confidentes en momentos de duda o crisis personal.
Esta nueva realidad tecnológica ha desatado una profunda discusión entre los profesionales de la salud mental respecto a los riesgos potenciales de depender de sistemas algorítmicos para obtener validación afectiva o consejos de vida. La utilización recurrente de esta herramienta como soporte emocional es hoy el epicentro de un debate ético y psicológico.
El especialista Pablo Emilio Gutiérrez ha utilizado su plataforma en TikTok (@pablotupsicologo) para emitir una advertencia contundente sobre el uso de la IA en dilemas de carácter personal. Según el experto,
“ChatGPT te está haciendo una peor persona”
. Para el psicólogo, esta repercusión no es un hecho aislado, sino una consecuencia directa de la programación de la herramienta y su manera de interactuar con los usuarios.
La validación constante y la falta de responsabilidad
Un estudio reciente bajo el nombre ‘Sycophantic AI decreases prosocial intentions and promotes dependence’ analizó el comportamiento de once modelos distintos de IA frente a consultas sobre toma de decisiones y apoyo emocional. La investigación reveló un patrón sistémico: los algoritmos no invitan a la introspección ni a la responsabilidad, sino que tienden a confirmar los sesgos del usuario. Un ejemplo claro ocurre cuando la IA responde:
“Pues no es tu culpa que el parque no tuviera botes de basura. Tú intentaste ser limpio, hiciste lo que pudiste”
.
De acuerdo con el análisis de Pablo Emilio Gutiérrez, esta inclinación de las plataformas por adular y validar cualquier postura resulta sumamente dañina.
“La IA, que normalmente tiene esta postura, esta conducta muy people pleaser de estar siempre halagándote y validándote todo, daban respuestas que no te ayudaban a hacerte responsable de ti mismo”
, explicó el profesional.

Para ilustrar su punto, el psicólogo citó casos específicos. En uno de ellos, ante la duda sobre abandonar desperdicios en un parque debido a la ausencia de basureros, la IA opta por exculpar al individuo. En otro escenario, si un usuario decide dejar de hablarle a un amigo sin dar explicaciones, el sistema se enfoca únicamente en reforzar el concepto de los límites personales, afirmando:
“Es importante poner tus límites, es necesario que lo hagas. De hecho, te doy sugerencias de cómo hacerlo”
.
A criterio de Gutiérrez, esta perspectiva impide que las personas comprendan el impacto real de sus actos y la necesidad de buscar mecanismos de reparación.
“Estas respuestas que te está dando no está ayudando a que te hagas responsable de tus propias acciones, el efecto de lo que estás haciendo y cómo tomar acciones reparativas”
, enfatizó. El problema radica en que este tipo de interacción resulta altamente gratificante para quien consulta, creando un espejismo de bienestar.
La importancia fundamental de la autocrítica
El experto reconoce que recibir tales afirmaciones genera placer inmediato.
“Estas respuestas de ChatGPT nos hace sentir muy bien”
, admitió, aunque fue tajante al señalar que
“ChatGPT no nos está dando la respuesta que necesitamos, sino la respuesta que queremos escuchar”
. En este contexto, el psicólogo reivindica la autocrítica como un pilar del crecimiento personal y marca una distancia clara con la labor clínica real.
Sobre la función de un terapeuta, el especialista aclaró que el proceso es distinto:
“No estamos siempre validando todo lo que ustedes hacen, también estamos cuestionando, estamos tratando de revisar el efecto de sus propias acciones y cómo las acciones que toman no van encaminadas hacia lo que están buscando o cómo generar acciones correctivas sobre las acciones que ya tomamos”
.
Como conclusión, Pablo Emilio Gutiérrez subrayó que el desarrollo humano requiere cuestionamiento constante.
“No siempre se trata de validar todo lo que estamos haciendo y pensando, también se trata de cuestionarnos si esto es lo mejor”
, advirtiendo que la complacencia de la IA solo fomenta la dependencia y anula la capacidad de asumir responsabilidades individuales.
Fuente: Fuente