NVIDIA acelera la era de los modelos Mixture of Experts con GB200 NVL72 y un salto de rendimiento de 10x
La nueva generación de modelos de inteligencia artificial más avanzados ya tiene una arquitectura clara favorita: Mixture of Experts (MoE). Y NVIDIA quiere ser el motor sobre el que se ejecuten. Su sistema GB200 NVL72, un diseño a escala de rack pensado para IA generativa masiva, está logrando hasta 10 veces más rendimiento en inferencia para modelos MoE punteros como Kimi K2 Thinking, DeepSeek-R1 o Mistral Large 3 frente a la generación anterior H200, cambiando la economía de la IA en los grandes centros de datos. Qué aporta realmente la arquitectura Mixture of Experts Durante años, la industria siguió una lógica sencilla: para tener modelos más inteligentes, había que hacerlos más grandes. Modelos densos con cientos de miles de millones