Alibaba presentó Qwen3-Next, una familia de modelos de IA entrenados por solo 500.000 dólares. La cifra contrasta con los 78 millones gastados por OpenAI en GPT-4, marcando un hito en la búsqueda de modelos más eficientes y económicos.
Un golpe sobre la mesa en la carrera de la inteligencia artificial
La batalla por liderar el desarrollo de inteligencia artificial acaba de sumar un nuevo capítulo. Alibaba presentó Qwen3-Next, una familia de modelos que no solo promete alto rendimiento, sino que también deja en evidencia el enorme costo que asumen empresas como OpenAI o Google.
El viernes, Alibaba Cloud, la división de servicios en la nube del gigante chino, mostró sus avances con un mensaje contundente: se puede entrenar un modelo potente sin gastar una fortuna.
Lo que cuesta innovar: de millones a miles
El modelo estrella, Qwen3-Next-80B-A3B, se entrenó con un presupuesto estimado de 500.000 dólares. La comparación es inevitable: OpenAI necesitó 78 millones de dólares para GPT-4, y Google llegó a los 191 millones con Gemini Ultra, según datos de la Universidad de Stanford.
Esa diferencia en costos es lo que coloca a Alibaba en el centro de la conversación. Con apenas una fracción del dinero, logró un rendimiento competitivo frente a proyectos multimillonarios.
Rendimiento que sorprende a la industria
De acuerdo con pruebas de la firma Artificial Analysis, Qwen3-Next-80B-A3B superó a modelos como DeepSeek R1 y Kimi-K2. Aunque todavía no alcanza a gigantes como GPT-5 o Claude 4.1, el resultado es notable por el bajo costo de entrenamiento.
Las claves de su eficiencia
¿Cómo logró Alibaba este salto?
- Arquitectura Mixture of Experts (MoE): el modelo utiliza 512 “expertos”, aunque solo activa 10 en cada proceso. Así consigue precisión sin disparar el consumo de recursos.
- Atención híbrida con Gated DeltaNet: esta técnica, desarrollada por MIT y NVIDIA, permite trabajar con grandes cantidades de texto, filtrando lo irrelevante y enfocándose en lo esencial.
Con estas innovaciones, Alibaba obtuvo un modelo rápido y económico, comparable a sistemas mucho más costosos.
Una tendencia clara en la IA global
El caso de Alibaba refleja un cambio que ya se percibe en la industria. En lugar de apostar por modelos cada vez más gigantes, varias empresas buscan sistemas más pequeños, eficientes y especializados.
El mes pasado, Tencent presentó modelos con menos de 7.000 millones de parámetros. En paralelo, la startup Z.ai lanzó su modelo GLM-4.5 Air, con apenas 12.000 millones activos.
Mientras tanto, compañías como OpenAI y Anthropic siguen la ruta opuesta, con proyectos masivos como GPT-5 o Claude 4, que exigen inversiones astronómicas.

Leave a Reply