La empresa tecnológica Anthropic ha emitido una denuncia formal señalando que las firmas chinas DeepSeek, Moonshot y MiniMax, especializadas en el desarrollo de inteligencia artificial, han ejecutado los denominados ataques de destilación. Según la acusación, estas compañías abusaron del modelo Claude con el objetivo de extraer sus capacidades y fortalecer sus propios sistemas de IA.
¿En qué consiste la técnica de destilación?
En el ámbito del machine learning, la destilación es un procedimiento técnico que facilita el traspaso de conocimientos de un modelo de inteligencia artificial a otro. Este mecanismo permite que un sistema de menor tamaño, conocido como modelo alumno, logre imitar el funcionamiento y las respuestas de redes neuronales de gran escala, denominadas modelo profesor, mediante el aprendizaje de sus predicciones y el uso de sus datos generados.
Dicha técnica se basa en el entrenamiento de un modelo con menor capacidad utilizando los resultados de uno mucho más avanzado. Aunque es una herramienta habitual en los laboratorios de vanguardia para crear versiones de IA más ligeras, económicas y eficientes para sus usuarios, su aplicación puede cruzar la línea de la ilegalidad.
Uso ilícito y detección de ataques
Se considera un ataque de destilación cuando organizaciones externas emplean modelos que no les pertenecen para entrenar los suyos, ahorrando así grandes cantidades de tiempo y recursos financieros. Anthropic ha mantenido una vigilancia constante sobre estas actividades y advirtió en un comunicado oficial que estas prácticas se han vuelto más sofisticadas e intensas recientemente.
De manera específica, Anthropic vinculó a las firmas chinas DeepSeek, Moonshot y MiniMax con la ejecución de estas maniobras contra Claude. La investigación reveló que estas empresas generaron un volumen superior a las 16 millones de interacciones con el chatbot a través de una red de 24.000 cuentas fraudulentas, lo que representa una violación directa a sus términos de uso.
«El volumen, la estructura y el enfoque de las solicitudes diferían de los patrones de uso habituales, lo que refleja una extracción deliberada de capacidades en lugar de un uso legítimo»
según detalló la compañía en su informe técnico.
Estrategias de DeepSeek, MiniMax y Moonshot
La firma de San Francisco explicó que, en el caso de DeepSeek, se detectó un flujo de tráfico sincronizado entre diversas cuentas que compartían métodos de pago y patrones idénticos. Esta empresa solicitaba a Claude que explicara detalladamente su razonamiento interno tras responder consultas complejas, con el fin de obtener datos de alta calidad para sus propios procesos de entrenamiento.
Por otro lado, la compañía MiniMax ejecutó más de 13 millones de intercambios centrados en el aprendizaje de la orquestación de herramientas y la codificación agéntica. De igual forma, la inteligencia artificial de Moonshot realizó aproximadamente 3,4 millones de interacciones destinadas a analizar el razonamiento de agentes, el procesamiento de datos y la creación de agentes para uso informático.
Antecedentes y medidas de seguridad
Para identificar estos abusos, Anthropic utilizó correlaciones de direcciones IP y análisis de metadatos, además de confirmar que otras compañías tecnológicas habían enfrentado situaciones similares. Cabe recordar que, en enero de 2025, la organización OpenAI también acusó a DeepSeek de utilizar técnicas de destilación para entrenar sus modelos basándose en la tecnología de ChatGPT.
La tecnológica estadounidense subrayó que estos ataques afectan directamente los controles de exportación que buscan mantener el liderazgo de Estados Unidos en el sector de la IA. Los ataques de destilación, según la empresa, permiten que competidores extranjeros eliminen la ventaja competitiva de quienes desarrollan tecnología original.
Para combatir estas amenazas, Anthropic ha implementado las siguientes medidas:
- Desarrollo de clasificadores especializados para detectar tráfico sospechoso.
- Sistemas de huellas de comportamiento para identificar patrones de ataque en su API.
- Refuerzo en la verificación de cuentas de programas de investigación, instituciones educativas y startups.
- Creación de salvaguardas a nivel de producto y modelo para reducir la utilidad de las respuestas frente a la destilación ilícita.
Fuente: Fuente