Alibaba anunció el lanzamiento de Qwen3-Next, una nueva generación de modelos de lenguaje impulsados por inteligencia artificial (IA) que destacan por su eficiencia y capacidad de procesamiento gracias a innovaciones como el mecanismo de atención híbrido, la arquitectura de Mezcla de Expertos (MoE) dispersa y mejoras en la atención computacional.
La compañía china explicó que el futuro de los modelos de gran escala (LLM) se centra en dos tendencias: el aumento de la longitud de contexto y el escalado de parámetros, objetivos hacia los que se dirigen los nuevos modelos.
Uno de los desarrollos más destacados es el Qwen3-Next-80B-A3B-Base, que integra una arquitectura MoE con 80 mil millones de parámetros totales, pero activa solo 3 mil millones por inferencia, lo que reduce costos computacionales sin sacrificar calidad.
La idea es que, en lugar de usar todos los recursos para cada consulta, el sistema actúe como un “equipo de especialistas” que se activa según la necesidad, optimizando tiempo y energía.
Además, incorpora avances como la atención híbrida, lograda con la combinación de Gated DeltaNet y Gated Attention, lo que mejora la capacidad de aprendizaje en contexto y aumenta la eficiencia.
Según la compañía, el 75 % del proceso utiliza Gated DeltaNet y el 25 % mantiene la atención estándar, logrando un mayor equilibrio entre rendimiento y estabilidad.
La tecnología también incluye la predicción multitoken (MTP), que acelera las respuestas y refuerza la fluidez en entrenamientos a gran escala.
Versiones especializadas para diferentes tareas
Alibaba lanzó dos versiones postentrenadas del modelo base:
-
Qwen3-Next-80B-A3B-Instruct, optimizado para manejar contextos muy extensos de hasta 256 mil tokens, con un rendimiento comparable al modelo insignia de la empresa, Qwen3-235B-A22B-Instruct-2507.
-
Qwen3-Next-80B-A3B-Thinking, diseñado para tareas de razonamiento complejo, que incluso supera a modelos más costosos como Qwen3-30B y Qwen3-32B, además de mostrar ventajas frente a sistemas de código cerrado como Gemini 2.5 Flash.
Comparaciones en el mercado de la IA
De acuerdo con pruebas de Artificial Analysis, el Qwen3-Next-80B-A3B-Base se posiciona por delante de modelos como DeepSeek V3.1 y Gemini 2.5 Flash en inteligencia y procesamiento de datos.
En cuanto a velocidad y generación de tokens por segundo, también supera a competidores como Claude 4 Sonnet y Grok 4.
Con estos avances, Alibaba busca consolidarse en la carrera global por la inteligencia artificial, ofreciendo modelos más rápidos, eficientes y con un mayor alcance en contextos de gran escala.