Elon Musk testifica que xAI utilizó modelos de OpenAI en el entrenamiento de Grok

Puntos clave
- Elon Musk testificó en un tribunal federal de California que xAI utilizó modelos de OpenAI para entrenar a su chatbot Grok.
- Musk describió la destilación de modelos como una práctica común en la industria, respondiendo "parcialmente" cuando se le preguntó si xAI había destilado directamente la tecnología de OpenAI.
- La destilación de modelos implica que un modelo de inteligencia artificial más grande enseña a uno más pequeño, mejorando el rendimiento mientras reduce las necesidades de recursos.
- OpenAI, Anthropic y Google han advertido que la destilación puede ser abusada para robar propiedad intelectual.
- Anthropic citó a empresas chinas como DeepSeek, Moonshot y MiniMax como ejemplos de destilación ilícita presunta.
- Google está implementando medidas para bloquear los "ataques de destilación", etiquetándolos como robo de propiedad intelectual.
- El testimonio destaca la falta de normas legales claras que rigen la compartición de modelos de inteligencia artificial.
En un tribunal federal de California, Elon Musk le dijo a un juez que su startup de inteligencia artificial, xAI, empleó los modelos de OpenAI para desarrollar su propio sistema, Grok, a través de una práctica conocida como destilación de modelos. Musk dijo que la técnica es común en la industria, respondiendo "parcialmente" cuando se le preguntó si xAI había destilado directamente la tecnología de OpenAI.
Elon Musk subió al estrado el jueves en un tribunal federal de California y confirmó que su empresa de inteligencia artificial, xAI, ha utilizado los modelos de OpenAI como parte del proceso de entrenamiento de su propio chatbot, Grok. La discusión se centró en la destilación de modelos, un método en el que un modelo de inteligencia artificial más grande y capaz sirve como "maestro" para un modelo más pequeño "alumno", transfiriendo conocimientos para mejorar el rendimiento.
Cuando el juez le preguntó a Musk si entendía la práctica, el multimillonario respondió que implica utilizar una inteligencia artificial para entrenar a otra. Presionado sobre si xAI había destilado específicamente la tecnología de OpenAI, Musk evitó una respuesta directa de sí o no, señalando que "generalmente todas las empresas de inteligencia artificial" participan en dicha actividad y agregando: "En parte". Más tarde aclaró: "Es una práctica estándar utilizar otras inteligencias artificiales para validar su inteligencia artificial".
La admisión se produce en medio de un aumento en la escrutinía de la destilación de modelos. Los observadores de la industria dicen que la técnica camina sobre una delgada línea entre la mejora legítima de la eficiencia y el posible robo de propiedad intelectual. OpenAI y Anthropic han acusado públicamente a empresas chinas de destilar sus modelos, nombrando a empresas como DeepSeek, Moonshot y MiniMax. Google también ha tomado medidas para bloquear lo que llama "ataques de destilación", describiéndolos como una forma de robo de propiedad intelectual que viola sus términos de servicio.
El blog de Anthropic reconoce la naturaleza dual de la práctica. La empresa escribió que, si bien "los laboratorios de inteligencia artificial de frontera rutinariamente destilan sus propios modelos para crear versiones más pequeñas y económicas para sus clientes", los competidores también podrían utilizar la destilación para adquirir capacidades poderosas a una fracción del costo y tiempo de desarrollo. La controversia ha generado llamados a directrices legales y estándares de la industria más claros.
El testimonio de Musk no resuelve si el uso de xAI de los modelos de OpenAI viola algún acuerdo, pero subraya cuán generalizada se ha vuelto la práctica. A medida que las aplicaciones de inteligencia artificial proliferan, el debate sobre lo que constituye un uso justo versus el robo probablemente se intensificará, lo que llevará a los reguladores y líderes tecnológicos a luchar con el paisaje en evolución del desarrollo de la inteligencia artificial.