El uso cotidiano de asistentes virtuales y modelos de lenguaje avanzado como ChatGPT ha provocado un debate sobre la utilidad de emplear fórmulas de cortesía como “gracias” o “por favor” al interactuar con algoritmos.
Aunque desde un análisis técnico estas expresiones implican un gasto de procesamiento computacional, estudios recientes sugieren que un trato moderadamente educado puede elevar la calidad de las respuestas obtenidas. La ciencia comienza a confirmar que la cordialidad hacia la inteligencia artificial no es tan irrelevante como se creía anteriormente.
El efecto de la educación en los resultados de la IA
Un análisis de la Waseda University de Tokio, presentado en 2024, investigó cómo influye el grado de cortesía en los prompts —instrucciones— sobre la precisión de las respuestas en modelos como ChatGPT o LLaMA.

Los especialistas evaluaron mandatos con distintos niveles de formalidad, incluyendo desde expresiones irrespetuosas hasta términos extremadamente ceremoniosos, aplicados en idiomas como inglés, chino y japonés.
Las conclusiones del estudio mostraron un patrón evidente: las instrucciones demasiado directas o groseras resultaban en respuestas menos útiles y precisas. Por el contrario, un tono respetuoso pero equilibrado solía derivar en respuestas fiables, estructuradas y detalladas. Se determinó que el punto óptimo para una comunicación efectiva se encuentra en el equilibrio entre la brusquedad y la excesiva formalidad.
Mecanismos de respuesta y estilos conversacionales
A diferencia de los humanos, los modelos de lenguaje no interpretan la educación mediante sentimientos, sino que operan bajo patrones lingüísticos de sus bases de datos. La IA no experimenta ofensas, pero sí tiene la capacidad de identificar y emular estilos de diálogo específicos.

Una instrucción clara, con un enfoque colaborativo y bien contextualizado, orienta al sistema para generar respuestas más profundas. En cambio, los comandos autoritarios o confusos tienden a producir textos cortos y con poca información relevante.
Esta postura es compartida por Murray Shanahan, experto de Google DeepMind, quien compara estos sistemas con un “becario inteligente”. Según el investigador, estos modelos:
“Tienden a adaptarse al estilo que plantea el usuario, respondiendo con mayor cooperación y paciencia cuando perciben un trato más educado o colaborativo”
Costes operativos frente a hábitos de comunicación
La práctica de ser amable con la IA también genera discusiones sobre la eficiencia. Sam Altman, director ejecutivo de OpenAI, ha mencionado que el procesamiento de millones de mensajes de cortesía innecesarios genera un consumo de energía y recursos significativo para los servidores globales.
No obstante, las encuestas reflejan que los usuarios continúan empleando estas frases, no por esperar una conexión emocional, sino por inercia de sus hábitos sociales diarios. La evidencia científica sugiere que, aunque la IA no sienta la cortesía, mantener un trato colaborativo es una estrategia funcional para obtener mejores resultados.
Desafíos y sesgos en el acceso a la información
Pese a las ventajas de la cortesía, una investigación del Centro para la Comunicación Constructiva (CCC) del MIT alerta sobre sesgos críticos en los modelos de lenguaje. Estos errores afectan principalmente a personas con bajo nivel educativo, usuarios que no dominan el inglés o aquellos que viven fuera de Estados Unidos.
Esta problemática podría profundizar las brechas en el acceso a la información a nivel mundial. Herramientas como GPT-4 de OpenAI, Claude 3 Opus de Anthropic y Llama 3 de Meta, que se promocionan como motores de democratización del saber, muestran deficiencias de fiabilidad ante ciertos perfiles demográficos.
El estudio, expuesto en la Conferencia AAAI de Inteligencia Artificial, señala que quienes más necesitan estas herramientas suelen recibir respuestas menos precisas. Al respecto, Elinor Poole-Dayan, autora principal del informe, sentenció:
“Esa visión no puede hacerse realidad sin garantizar que los sesgos del modelo y las tendencias perjudiciales se mitiguen de forma segura para todos los usuarios, independientemente de su idioma, nacionalidad u otros datos demográficos”
Fuente: Fuente