
NVIDIA reimagina la inferencia en IA: grandes clústeres, silicio fotónico y redes ultraeficientes para un futuro dominado por modelos de razonamiento
La compañía apuesta por infraestructuras centralizadas de alto rendimiento como respuesta al auge de modelos generativos avanzados y carga inferencial creciente, mientras su tecnología de óptica co-integrada redefine los límites de eficiencia energética en centros de datos Durante años, la narrativa sobre cómo construir un clúster de IA ha sido clara: agrupar tantas GPU como sea posible, conectarlas con redes ultrarrápidas y alimentarlas con cantidades ingentes de datos. Sin embargo, el salto de la inteligencia artificial generativa desde la fase de entrenamiento hacia su despliegue masivo en inferencia está modificando los principios fundamentales del diseño de centros de datos. Y NVIDIA quiere liderar esa transición. En declaraciones a DataCenterDynamics, Kevin Deierling, vicepresidente sénior de redes en NVIDIA, explica que la