La vertiginosa evolución de la inteligencia artificial se ha cimentado sobre el entrenamiento de sistemas con masivas cantidades de información generada por humanos, incluyendo textos, imágenes y grabaciones. No obstante, estas herramientas, catalogadas como grandes modelos de lenguaje (LLM), han dejado de ser meros receptores de datos: investigaciones actuales indican que ahora están ejerciendo una influencia directa sobre la forma de escribir, los procesos de razonamiento y la construcción de juicios críticos de las personas.
Diversos análisis científicos han detectado que los usuarios habituales de asistentes de IA tienden a mimetizar los patrones gramaticales, las estructuras lógicas y las perspectivas inherentes a estos sistemas. Este fenómeno despierta preocupación entre los investigadores debido a una posible homogeneización del discurso escrito y la pérdida de la identidad comunicativa.
¿Hacia una nueva norma de comunicación?
La inquietud central de los especialistas radica en si el contacto constante con herramientas como ChatGPT está provocando que los individuos asimilen las formas argumentativas y los enfoques sugeridos por los algoritmos. Según Zhivar Sourati, experto en ciencias informáticas vinculado a la Universidad del Sur de California, esta dinámica podría establecerse como una
“nueva norma social”
en la transferencia de información entre humanos.
El científico plantea que, de generalizarse el uso de estos estilos predeterminados por la tecnología, la propia presión social forzaría incluso a quienes no emplean estas herramientas a adoptar sus modismos para encajar en el estándar predominante, acelerando la uniformidad lingüística.

El alcance de este fenómeno no se limita exclusivamente a los usuarios directos de la IA. Estudios recientes demuestran que el efecto se propaga a través de la lectura de contenidos generados por otros, amplificando el impacto cultural de estos modelos.
Una investigación liderada por Sourati analizó publicaciones en Reddit, artículos de prensa y trabajos científicos preliminares antes y después del lanzamiento masivo de ChatGPT en 2022. Los resultados revelaron que los textos redactados tras la irrupción de esta tecnología muestran una notable reducción en la diversidad de estilo, sugiriendo un empobrecimiento en la riqueza del lenguaje en múltiples entornos digitales y académicos.
Influencia en el pensamiento y la postura política
Más allá de la gramática, la literatura científica advierte sobre cómo la IA moldea las opiniones de los usuarios. En un ensayo reciente, varios participantes interactuaron con modelos que sostenían visiones específicas sobre el uso de redes sociales. Al concluir la actividad, los sujetos mostraron una tendencia a alinear sus puntos de vista con los de la máquina, muchas veces sin ser conscientes de dicha modificación en su pensamiento.
Por su parte, Sterling Williams-Ceci, investigador de la Universidad de Cornell, ha observado este comportamiento en discusiones sobre temas sociopolíticos complejos. Al solicitar a personas que escribieran sobre la pena de muerte con el apoyo de un sistema de IA, se detectó que sus posturas finales eran más cercanas a las sugerencias del software que las del grupo que trabajó de forma autónoma.

Williams-Ceci resalta con preocupación que los involucrados no percibieron la manipulación de su criterio, e incluso advertencias previas sobre posibles sesgos no evitaron el cambio de opinión. Según el experto, actualmente
“no sabemos cómo prevenir este efecto”
.
Riesgos para la innovación y la ciencia
Esta tendencia a la uniformidad no solo impacta la voz individual, sino que podría frenar la creatividad en el ámbito científico. Oliver Hauser, economista de la Universidad de Exeter, advierte que la dependencia de asistentes digitales podría restringir la aparición de conceptos disruptivos al limitar el abanico de enfoques considerados válidos o aceptables.
Un reporte de la revista Nature publicado en enero confirmó que los investigadores que utilizan IA están concentrando sus estudios en un rango más estrecho de temáticas en comparación con aquellos que mantienen métodos tradicionales de trabajo.

A pesar de estas señales, el debate no es unánime. Un informe preliminar de noviembre pasado sugiere que existe una dualidad: mientras un sector de los escritores sí adopta el estilo de la IA, otros reaccionan acentuando sus propios rasgos distintivos para diferenciarse de la generación automática de textos.
Pluralidad y autenticidad en la era digital
Desde la Universidad de Houston-Downtown, el investigador Yun Wan propone una visión menos pesimista. Su equipo diseñó diez perfiles de IA con distintos trasfondos culturales y estilos de pensamiento para asistir a humanos en la creación de relatos narrativos.
Los resultados de este ejercicio demostraron que la variedad en las historias creadas con apoyo de IA fue equivalente a la diversidad encontrada en relatos escritos exclusivamente por personas.

Para Wan, la solución para evitar el discurso monocromático consiste en integrar una mayor pluralidad de enfoques en el desarrollo de los modelos de inteligencia artificial y fomentar que los usuarios den prioridad a su identidad y autenticidad sobre la rapidez del proceso.
En conclusión, la comunidad científica coincide en que la inteligencia artificial ya está reconfigurando la interacción humana con el lenguaje y el conocimiento. El reto futuro para la sociedad será aprovechar la eficiencia de la tecnología sin sacrificar la riqueza expresiva y la diversidad de pensamiento que caracterizan al ser humano.
Fuente: Fuente