Musk admite que xAI usó modelos de OpenAI

Musk admite que xAI usó modelos de OpenAI

El CEO reconoce ante un tribunal que emplearon destilación, una práctica habitual en la industria de la Inteligencia Artificial

Elon Musk ha reconocido ante un tribunal federal de California que su compañía xAI utilizó modelos de inteligencia artificial de OpenAI para entrenar sus propios sistemas Grok. El CEO admitió durante su testificación que recurrieron a la destilación, una técnica que permite transferir el aprendizaje de un modelo avanzado a otro más pequeño.

La destilación funciona haciendo que un sistema menor imite el comportamiento de redes neuronales más sofisticadas, aprendiendo de sus predicciones. Musk defendió que xAI entrenó Grok "en parte" con modelos de OpenAI y argumentó que es una práctica habitual en el sector emplear otras inteligencias artificiales para validar el rendimiento de las propias. Cuando el jurado insistió en el caso concreto de Grok, confirmó que sí se empleó "en parte", haciendo referencia al uso de modelos como ChatGPT.

Las declaraciones se produjeron en el marco del juicio que enfrenta a xAI con OpenAI. La demanda fue interpuesta por Musk contra Sam Altman por la transformación de OpenAI en una entidad con fines de lucro, alejándose de su planteamiento original sin ánimo de lucro. Durante el interrogatorio, Musk aseguró que "generalmente todas las empresas de IA" utilizan este método, según han recogido medios como TechCrunch y The Verge.

Sin embargo, la práctica genera controversia cuando se utiliza para entrenar modelos propios sin asumir los costes y el tiempo necesarios para desarrollar la tecnología desde cero, lo que se conoce como "ataque de destilación". Aunque Musk ha defendido la normalidad de esta técnica, otras compañías como OpenAI o Anthropic han denunciado previamente este tipo de prácticas en terceros, especialmente en relación con empresas chinas.

OpenAI acusó a la empresa China DeepSeek de utilizar modelos de ChatGPT para entrenar sus sistemas de código abierto, planteando posibles conflictos de propiedad intelectual. Por su parte, Anthropic denunció en febrero a compañías como DeepSeek, Moonshot y MiniMax por explotar su modelo Claude mediante millones de interacciones generadas desde miles de cuentas fraudulentas.

Ante este escenario, las empresas de inteligencia artificial están empezando a implementar medidas para detectar y frenar estos ataques, como el análisis de patrones de comportamiento anómalo en las solicitudes de acceso a sus sistemas. La industria busca así proteger sus inversiones en investigación y desarrollo mientras se debate sobre los límites legales y éticos de la destilación de modelos.