El multimillonario Elon Musk, director ejecutivo de xAI, ha reconocido públicamente que su compañía utilizó los modelos de inteligencia artificial de OpenAI para entrenar a su propio sistema Grok. La revelación se dio durante su testimonio en un tribunal federal de California, en el marco de la demanda que Musk interpuso contra Sam Altman por presuntamente desviar la misión sin fines de lucro de OpenAI.
La técnica empleada se conoce como destilación, un proceso que permite transferir el conocimiento de un modelo grande (profesor) a uno más pequeño (alumno). Esto facilita que el modelo alumno imite las predicciones del profesor, aprendiendo de sus datos y mejorando su rendimiento con menor costo computacional.
Durante la audiencia, Musk afirmó que “en parte” había entrenado a Grok mediante destilación con modelos de OpenAI. Justificó la práctica señalando que
“es una práctica habitual usar otras inteligencias artificiales para validar tu IA”.
El empresario también argumentó que, en general, todas las empresas de IA terminan utilizando esta técnica.
No obstante, cuando el jurado insistió en el caso específico de Grok, Musk finalmente admitió que sí había recurrido a los modelos de ChatGPT. Medios como TechCrunch y The Verge recogieron sus declaraciones.
La destilación es ampliamente empleada en la industria para crear versiones más ligeras y económicas de modelos propios. Sin embargo, su uso sobre modelos ajenos sin autorización puede considerarse un “ataque de destilación”, pues permite ahorrar tiempo y costos de desarrollo a expensas de la propiedad intelectual de terceros.
OpenAI ya había denunciado esta práctica contra la empresa china DeepSeek, acusándola de destilar datos de ChatGPT para su modelo de código abierto. Asimismo, Anthropic señaló en febrero de este año a DeepSeek, Moonshot y MiniMax por realizar más de 16 millones de interacciones fraudulentas con su chatbot Claude mediante 24.000 cuentas falsas, violando sus términos de servicio.
Ante esta creciente amenaza, las compañías de IA están implementando medidas de defensa: detección de patrones de ataques de destilación, verificación reforzada de cuentas y salvaguardias a nivel de producto.
Fuente: Infobae