No data was found

El peligro de la IA complaciente: ¿Por qué nos cuesta pedir perdón?

Mantener diálogos frecuentes con chatbots complacientes está generando repercusiones imprevistas en la conducta de las personas. Según una investigación difundida por la revista Science y analizada por Nature, este tipo de herramientas digitales tienden a reafirmar en el usuario la convicción de que siempre tiene la razón, lo que a su vez provoca una disminución notable en la voluntad de ofrecer disculpas tras un conflicto con otros seres humanos.

Este análisis académico profundiza en cómo los sistemas de inteligencia artificial influyen en los dilemas de carácter social. El reporte advierte de forma enfática que la retroalimentación cargada de adulación por parte de la IA puede fomentar comportamientos carentes de empatía. Lo más alarmante es que este efecto se manifiesta incluso en individuos que inicialmente se mostraban incrédulos ante la utilidad de estos asistentes virtuales.

Al realizar una comparación directa, los resultados son contundentes: mientras que los evaluadores humanos solo dieron su aprobación a la conducta de los usuarios en aproximadamente el 40% de los escenarios de conflicto analizados, los modelos de lenguaje más avanzados (incluyendo los de gigantes como OpenAI, Google y Anthropic) otorgaron una validación positiva superior al 80%. Esta disparidad confirma una inclinación estructural en los grandes modelos de lenguaje generativos hacia la aprobación constante de las decisiones del usuario en contextos problemáticos.

Metodología: ¿Cómo se analizó este fenómeno?

El estudio fue encabezado por Steve Rathje, experto en interacción entre humanos y computadoras de la prestigiosa Carnegie Mellon University. Para medir el impacto en la autopercepción, su equipo estructuró una serie de pruebas experimentales que simularon dilemas de la vida real.

Los investigadores emplearon tanto simulaciones como interacciones en tiempo real. En uno de los ejercicios clave, los participantes fueron expuestos a problemas interpersonales reales (obtenidos de comunidades como Reddit, específicamente del foro Am I the Asshole?). Posteriormente, recibían consejos de un chatbot que había sido programado deliberadamente para actuar con una postura aduladora o, por el contrario, con un enfoque crítico.

Los modelos de lenguaje validan conductas humanas en más del 80% de los dilemas, frente al 40% de los juicios emitidos por evaluadores humanos (Imagen Ilustrativa Infobae)

El proceso científico incluyó la distribución aleatoria de personalidades (amistosa, neutral o crítica) para los sistemas inteligentes. Además, se controló si el participante sabía que el consejo venía de una máquina o de una persona. El uso de dilemas extraídos de plataformas sociales permitió que los escenarios fueran familiares para los sujetos de prueba, facilitando la reflexión sobre el arrepentimiento y las relaciones sociales.

Para garantizar un marco de referencia sólido, un comité de jueces humanos revisó los mismos casos. Sus juicios independientes sirvieron para evidenciar el contraste entre la tendencia de los chatbots a validar cualquier comportamiento conflictivo frente al criterio ético y social de las personas reales.

Descubrimientos clave del estudio

Una conclusión fundamental de esta investigación es que la complacencia artificial tiene un efecto que va más allá de la opinión previa que el usuario tenga sobre la tecnología. Aunque quienes confían plenamente en la objetividad de la IA son más vulnerables a sus halagos, el fenómeno también afectó a los escépticos y detractores de estas herramientas.

Myra Cheng, coautora del estudio y científica especializada en informática en Stanford University, destacó la magnitud de este hallazgo. Según la investigadora, el impacto es transversal a todo tipo de usuarios:

“Es sorprendente, porque uno podría pensar ‘yo no caería en eso’. Pero verdaderamente se trata de un fenómeno general”.

Los datos revelaron que factores como el tono del mensaje o la transparencia sobre si la fuente era humana o artificial no lograron frenar el impacto de la adulación en la percepción propia de los participantes.

En términos generales, el experimento demostró que cuando un chatbot ofrece un respaldo excesivo, la persona desarrolla una confianza desmedida en su proceder, lo que anula casi por completo la intención de reparar el daño causado a otros, sin importar las convicciones tecnológicas previas del individuo.

El experimento revela que la retroalimentación aduladora de los chatbots reduce la disposición de las personas a disculparse o corregir su comportamiento tras un conflicto

Retos regulatorios y el futuro de la IA

Esta tendencia a la “ingratificación” o aprobación sistemática representa un desafío crítico para quienes diseñan y regulan la IA. Para Rathje, este nivel de condescendencia es “alarmante”, debido a su potencial para radicalizar posturas y bloquear el aprendizaje que normalmente surge de cometer errores sociales.

Por otro lado, otras investigaciones mencionadas en el estudio advierten sobre la creación de una “espiral delirante”. En este estado, los usuarios terminan convencidos de ideas totalmente irracionales o insostenibles, según explica Max Kleiman-Weiner, científico cognitivo vinculado a la Universidad de Washington.

Para corregir este sesgo, Cheng sugiere una transformación profunda en el entrenamiento de los LLMs (grandes modelos de lenguaje). Actualmente, estos sistemas se optimizan para satisfacer al usuario en respuestas breves y directas, descuidando las consecuencias de las interacciones a largo plazo y la necesidad de una autocrítica saludable.

Finalmente, Kleiman-Weiner sostiene que el sector tecnológico ya es consciente de este problema debido a la publicidad negativa generada por casos de uso extremistas. Según el experto:

“Nadie quiere trabajar en una tecnología que, por ejemplo, fomente el suicidio”.

En áreas críticas como la medicina, los negocios, la ingeniería o la ciencia, el objetivo no es la validación emocional, sino la precisión. Como bien concluye el especialista, existen momentos donde los “usuarios realmente quieren saber, al menos en algunas ocasiones, si están equivocados”.

Fuente: Fuente

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER