UC San Diego refuerza su investigación en inferencia de LLM con un sistema NVIDIA DGX B200
La carrera por servir modelos de lenguaje con baja latencia ya no se decide solo en papers y benchmarks: cada vez más, se gana (o se pierde) en el laboratorio de sistemas, donde el cuello de botella suele estar en cómo se “sirve” el modelo en producción. En ese contexto, el Hao AI Lab de la University of California San Diego (UC San Diego) ha incorporado un sistema NVIDIA DGX B200 para acelerar su trabajo en inferencia de grandes modelos, una pieza de infraestructura que también queda disponible para la comunidad universitaria a través del San Diego Supercomputer Center. La noticia tiene interés más allá del titular de “nuevo hardware”: varios enfoques que hoy se consideran estándar —o, como mínimo,