NVIDIA ha aprovechado el GTC 2026 para presentar BlueField-4 STX, una nueva arquitectura de referencia modular con la que quiere resolver uno de los cuellos de botella menos visibles de la IA moderna: el almacenamiento y el acceso al contexto. La propuesta está orientada a empresas, proveedores cloud y operadores de infraestructura de IA que necesitan alimentar sistemas capaces de trabajar con contextos largos, múltiples herramientas y sesiones persistentes, algo cada vez más habitual en la llamada IA agéntica.
La idea de fondo es clara: ya no basta con tener más GPU. Según NVIDIA, los centros de datos tradicionales ofrecen capacidad, pero no la rapidez de respuesta necesaria para que los agentes de IA accedan a datos y memoria contextual en tiempo real sin penalizar la inferencia. BlueField-4 STX intenta cubrir ese hueco con una pila de almacenamiento acelerado que mantenga los datos “cerca” de las GPU y reduzca la fricción entre almacenamiento, red y computación.
El primer despliegue a escala rack de esta arquitectura llega bajo el nombre de NVIDIA CMX, una plataforma de context memory storage que añade una capa de contexto de alto rendimiento para inferencia escalable y sistemas agénticos. NVIDIA asegura que esta aproximación puede ofrecer hasta cinco veces más tokens por segundo que el almacenamiento tradicional, además de hasta cuatro veces más eficiencia energética y una ingesta de datos dos veces más rápida para cargas empresariales de IA.
Desde el punto de vista técnico, STX se apoya en un nuevo procesador BlueField-4 optimizado para almacenamiento, que combina la CPU Vera con la ConnectX-9 SuperNIC, junto con Spectrum-X Ethernet, DOCA y NVIDIA AI Enterprise. La arquitectura se integra además en la plataforma Vera Rubin, presentada también en el GTC 2026 como el nuevo bloque de construcción de las futuras “fábricas de IA” de la compañía. Dentro de ese ecosistema, BlueField-4 STX no aparece como una pieza aislada, sino como uno de los racks especializados que completan la visión de NVIDIA para entrenamiento, inferencia agéntica, redes y almacenamiento.
El movimiento encaja con una evolución evidente del mercado. Si durante los últimos años la conversación se ha centrado casi exclusivamente en GPUs, HBM y redes de alta velocidad, ahora NVIDIA quiere empujar la idea de que la memoria de contexto y el almacenamiento para inferencia son igual de estratégicos cuando los modelos pasan de responder preguntas sueltas a ejecutar tareas de varios pasos, conservar estado y reutilizar información a gran escala. Esa lectura es una inferencia razonable a partir del propio discurso de la compañía y del diseño de Vera Rubin, que reparte la infraestructura de IA en racks especializados en GPU, CPU, red y almacenamiento.
NVIDIA ha subrayado además que no se trata solo de una hoja de ruta, sino de un ecosistema que ya empieza a moverse. Entre los adoptadores tempranos de STX para almacenamiento de memoria contextual figuran nombres como CoreWeave, Crusoe, IREN, Lambda, Mistral AI, Nebius, Oracle Cloud Infrastructure y Vultr. En paralelo, proveedores de almacenamiento como Cloudian, DDN, Dell Technologies, Hitachi Vantara, HPE, IBM, MinIO, NetApp, Nutanix, VAST Data y WEKA están trabajando sobre esta arquitectura, mientras que fabricantes como AIC, Supermicro y QCT preparan sistemas basados en STX.
Que aparezcan en esa lista tanto hyperscalers de IA como firmas especializadas en almacenamiento no es casual. STX busca funcionar como una arquitectura de referencia, no como un producto cerrado. En otras palabras, NVIDIA no vende solo un rack, sino una receta de diseño para que sus socios monten plataformas modulares compatibles con el tipo de inferencia y análisis que exigirán los agentes empresariales. Es un enfoque parecido al que la compañía ha seguido en otras capas de su stack: marcar la dirección técnica, fijar la interconexión entre componentes y dejar que el ecosistema industrial construya alrededor. Esta interpretación está respaldada por la propia descripción de STX como reference architecture y por el peso que NVIDIA otorga a sus socios MGX y a la cadena global de suministro dentro de Vera Rubin.
Para el mercado, el anuncio también deja una lectura relevante: la batalla de la IA ya no se juega solo en el modelo, sino en toda la infraestructura de datos que lo rodea. Si los agentes van a operar con historiales largos, documentos, herramientas, memoria operativa y ciclos continuos de inferencia, el rendimiento del almacenamiento deja de ser una cuestión secundaria. NVIDIA quiere posicionarse justo ahí, ampliando su dominio desde la aceleración de cómputo hacia la arquitectura completa de los centros de datos de IA.
Los primeros sistemas basados en BlueField-4 STX estarán disponibles a través de socios en la segunda mitad de 2026, por lo que su adopción real empezará a medirse en los próximos meses. Pero el mensaje estratégico ya está encima de la mesa: para NVIDIA, el futuro de la IA agéntica no depende solo de GPU más potentes, sino de rediseñar de arriba abajo la relación entre computación, red, memoria y almacenamiento.