GB300 acelera DeepSeek en contexto largo: LMSYS mide hasta un 1,53× más rendimiento que GB200
La guerra de la inferencia ya no se decide solo por “cuántos tokens por segundo” puede escupir una GPU en un prompt corto. En 2026, el nuevo campo de batalla es el contexto largo: modelos que leen bases de código enteras, mantienen memoria en flujos agénticos y responden con latencia baja mientras el prompt crece hasta tamaños que hace poco parecían inviables en producción. En ese escenario, LMSYS (el equipo detrás de desarrollos y evaluaciones muy seguidas en el ecosistema de serving) ha publicado resultados de rendimiento de DeepSeek ejecutándose sobre NVIDIA GB300 NVL72 (Blackwell Ultra) comparándolo con GB200 NVL72. Y el mensaje es contundente: en un caso de uso de contexto largo (128.000 tokens de entrada y 8.000 de
