No data was found

Dudas sobre GPT-5.2: Investigan el uso de Grokipedia como fuente

Una serie de pruebas especializadas sobre el desempeño de ChatGPT ha encendido las alarmas tras detectar que su modelo más avanzado, el GPT-5.2, ha fundamentado sus respuestas en artículos de Grokipedia. Esta última es una enciclopedia digital gestionada íntegramente por inteligencia artificial y desarrollada por xAI, la compañía tecnológica dirigida por Elon Musk. El descubrimiento surge en un momento crítico donde la comunidad científica y los usuarios finales cuestionan la veracidad de la información que estos sistemas proporcionan ante consultas de alta complejidad.

Avances tecnológicos y fallas de origen

El sistema GPT-5.2, que fue incorporado a la plataforma de OpenAI en diciembre, se presenta como el salto cualitativo más significativo de la empresa en términos de razonamiento lógico y resolución de problemas para los sectores científico y empresarial. No obstante, a pesar de estas capacidades, se han documentado serias dudas sobre cómo el modelo selecciona sus fuentes bibliográficas, especialmente en temas de carácter sensible o poco frecuentes. En diversas evaluaciones, se confirmó que textos provenientes de Grokipedia fueron citados en nueve ocasiones dentro de un conjunto de más de doce preguntas distintas. Estas referencias aparecieron con mayor énfasis en temas relacionados con conglomerados iraníes y posturas vinculadas al negacionismo del Holocausto.

¿Qué es Grokipedia y cómo funciona?

A diferencia de la conocida Wikipedia, cuya gestión recae en la Fundación Wikimedia y se basa en el debate abierto y la colaboración de voluntarios humanos, Grokipedia opera bajo un esquema radicalmente distinto. Este proyecto de xAI utiliza a Grok, su propia IA, para redactar y supervisar la mayor parte de su contenido. Aunque el sistema permite que se envíen correcciones, es la misma inteligencia artificial la que decide, sin intervención de personas, si aprueba o rechaza los cambios. Actualmente, este repositorio digital ya supera los 6 millones de artículos publicados.

Resulta relevante observar que el uso de esta fuente por parte de ChatGPT no fue constante en todas las áreas del conocimiento. En interrogantes sobre sucesos que han generado fuertes controversias mediáticas, como la insurrección en Estados Unidos, la cobertura sobre Donald Trump o detalles de la crisis sanitaria del VIH/SIDA, el modelo GPT-5.2 evitó el uso de Grokipedia. Sin embargo, su aparición en temas menos comunes ha generado desconfianza sobre la solidez de los filtros de seguridad que OpenAI afirma tener integrados.

Posturas de las empresas involucradas

Ante estos hallazgos, un vocero oficial de OpenAI declaró que su modelo utiliza:

«una amplia gama de fuentes y puntos de vista disponibles públicamente»

El representante subrayó que la organización cuenta con mecanismos de protección diseñados para reducir la exposición a materiales que representen riesgos críticos. Asimismo, recalcaron que ChatGPT suele mostrar de forma explícita las fuentes que utiliza. La empresa también aseguró estar trabajando en el desarrollo de herramientas específicas para identificar información de dudosa procedencia y frenar intentos de manipulación informativa.

Un problema compartido entre gigantes de la IA

La investigación no solo salpicó a OpenAI. Se determinó que Claude, el asistente desarrollado por la firma Anthropic, también ha recurrido a Grokipedia para responder dudas sobre sectores como la industria petrolera y la producción de cervezas escocesas. Mientras que Anthropic optó por el silencio ante estas revelaciones, xAI, la creadora de Grokipedia, respondió con una postura confrontativa afirmando que:

«los medios tradicionales mienten.»

El trasfondo ideológico de Elon Musk

La creación de Grokipedia se enmarca en la estrategia de Elon Musk para combatir lo que él denomina sesgos progresistas en Wikipedia. El empresario ha criticado abiertamente la línea editorial de la enciclopedia tradicional, lo que impulsó el desarrollo de Grok y su propia base de datos automatizada. Este ecosistema plantea un debate profundo sobre la transparencia y las garantías de fiabilidad cuando sistemas de IA de élite, como GPT-5.2, consumen y replican datos generados por otros sistemas automáticos con controles de calidad poco claros.

Los resultados de este análisis sugieren que, aunque existen esfuerzos por transparentar las fuentes, la inclusión de contenidos generados artificialmente en temas delicados evidencia brechas en la supervisión de la calidad de los datos. Diversos especialistas coinciden en que los temas conspirativos o sujetos a debate público requieren una precisión extrema, por lo que han solicitado una vigilancia más estricta sobre la difusión de información que carece de una validación humana rigurosa.

En un entorno donde ChatGPT se consolida como una herramienta esencial para el ámbito corporativo y académico, el uso de bases de datos como Grokipedia añade una capa de complejidad ética. La confianza en las nuevas tecnologías de automatización de texto depende, en última instancia, de la capacidad de los desarrolladores para garantizar que la información entregada al usuario final sea veraz, contrastada y libre de manipulaciones automatizadas.

Fuente: Fuente

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER