La infraestructura de Inteligencia Artificial está entrando en una nueva fase: la batalla ya no se libra solo en la potencia de las GPUs, sino en el camino de los datos. En ese contexto, VAST Data y NVIDIA han anunciado una integración que apunta directamente al punto de fricción más habitual en los despliegues empresariales: la complejidad de unir almacenamiento, bases de datos, analítica y servicios de IA como si fueran piezas sueltas. La alianza se materializa en VAST CNode-X, una nueva propuesta para llevar el VAST AI Operating System (AI OS) directamente a servidores con GPUs de NVIDIA y convertirlo en una capa “de primera clase” dentro de clústeres acelerados.
La idea es tan simple como ambiciosa: si el entrenamiento, la inferencia y los sistemas tipo RAG dependen de mover datos de un lado a otro, entonces el rendimiento real se decide en el “data path”. VAST sostiene que, con el AI OS ejecutándose sobre servidores NVIDIA-powered, las organizaciones pueden reducir cuellos de botella y operar ingesta, recuperación, analítica e inferencia como un único sistema coherente. En lugar de montar un puzzle con herramientas separadas —almacenamiento por un lado, base de datos por otro, y una pila de IA aparte—, la propuesta busca concentrar esas capacidades en un stack unificado orientado a producción.
CNode-X: cuando el servidor deja de ser “solo cómputo”
VAST describe CNode-X como una nueva generación de NVIDIA-Certified Systems, concebida para transformar la forma en la que se construye y opera la infraestructura de IA. El enfoque va más allá de “conectar” un almacenamiento rápido a un clúster GPU: la novedad es que el AI OS queda disponible directamente en el hardware, aportando servicios de almacenamiento de alto rendimiento a los clústeres acelerados y, al mismo tiempo, integrando el sistema operativo de datos dentro del propio entorno.
El objetivo declarado es optimizar un conjunto de usos que hoy marcan la agenda de casi cualquier empresa con IA en serio: pipelines de IA, analítica de alto rendimiento, búsqueda vectorial, RAG y cargas agénticas. En la práctica, esto significa reducir el trabajo de “costura” que suele aparecer al pasar de un piloto a un sistema durable: configuraciones distintas, consolas separadas, identidades duplicadas y varios equipos intentando que el stack se comporte como un solo producto.
Renen Hallak, fundador y CEO de VAST Data, enmarca la evolución como la llegada de un objetivo perseguido durante una década: un sistema capaz de “refinar datos en inteligencia y acción” de forma continua. Su argumento es que acelerar cómputo y ruta de datos dentro del AI OS ofrece una vía más directa para llevar recuperación, analítica y workflows agénticos a producción, sin que el proyecto muera en la fase de integración.
Jensen Huang y la “memoria persistente” para agentes que trabajan durante días
NVIDIA, por su parte, sitúa la iniciativa dentro de su estrategia de “reinventar” los pilares del cómputo para IA. Jensen Huang, fundador y CEO, subraya que CNode-X estaría acelerado por CUDA “en cada capa” para dotar a los agentes de IA de memoria persistente, con la intención de que puedan abordar problemas complejos durante días o semanas y, con el tiempo, durante años, sin “olvidar” el contexto. El mensaje es relevante porque apunta a una tendencia que se repite en la industria: los agentes no solo necesitan modelos potentes; necesitan un sistema de datos que sostenga el estado, el historial y la recuperación de información a gran escala.
En paralelo, Cisco entra en el relato como uno de los socios de comercialización. Jeetu Patel, presidente y CPO de Cisco, plantea que las empresas necesitan un camino fiable para operacionalizar IA a escala. Su lectura es que la colaboración con VAST y NVIDIA permitirá llevar al mercado una plataforma acelerada de extremo a extremo sobre infraestructura Cisco, ayudando a pasar de experimentación a sistemas “siempre activos” con más rapidez y confianza.
Los OEMs: disponibilidad desde Cisco, HPE y Supermicro
VAST señala que los servidores CNode-X estarán disponibles a través de fabricantes como Cisco y Supermicro, y la cobertura del sector añade que también llegarán desde HPE y otros OEMs. Este punto no es menor: en infraestructura, la adopción se acelera cuando el producto se compra “por catálogo” y entra por los canales habituales de cada empresa, con soporte y configuraciones certificadas.
Un contexto que encaja: el “networking de IA” ya no se parece al de Internet
La noticia llega acompañada de un dato que ayuda a entender por qué el storage vuelve a ser protagonista. Un análisis reciente de Backblaze sobre tráfico neocloud sostiene que el comportamiento de red de workloads de IA se diferencia del cloud tradicional: “menos muchos-a-muchos y más relaciones sostenidas de alto caudal entre sistemas especializados”. En ese escenario, Backblaze sugiere que almacenamiento, cómputo y red tenderán a alinearse aún más, empujados por la necesidad de mantener GPUs ocupadas y pipelines fluidos.
Esa lectura conecta con el argumento comercial de CNode-X: cuando el cuello de botella es el dato, el valor no está solo en añadir más GPU, sino en reducir latencia operativa, simplificar el stack y evitar que la infraestructura se convierta en un proyecto interminable de integración.
Polaris: la capa para tratar la IA distribuida como “una sola flota”
La ampliación de la alianza VAST-NVIDIA se anunció, además, junto al lanzamiento de Polaris, una nueva oferta multi-cloud e híbrida de VAST. El objetivo de Polaris es convertir despliegues distribuidos en una plataforma unificada a escala de flota, para gestionar infraestructura y datos de IA allí donde se ejecuten workloads de entrenamiento e inferencia. El mensaje es coherente con la dirección del mercado: la IA no vive en un solo CPD ni en una única nube, y cada vez más organizaciones quieren operar un plano de control que abarque entornos híbridos sin multiplicar herramientas.
En conjunto, CNode-X y Polaris dibujan una ambición común: que la infraestructura de IA deje de ser una colección de piezas y se convierta en un sistema operativo de datos y ejecución, preparado para producción.
Preguntas frecuentes (FAQ)
¿Qué es VAST CNode-X y para qué sirve en un clúster de GPUs NVIDIA?
VAST CNode-X es una propuesta de servidor GPU-powered que integra el VAST AI OS directamente en el hardware para ofrecer servicios de datos de alto rendimiento y simplificar la operación de pipelines de IA, RAG y búsqueda vectorial en clústeres acelerados.
¿Por qué VAST insiste en “unificar” almacenamiento, base de datos y pila de IA?
Porque en muchos despliegues empresariales el mayor freno no es el modelo, sino la integración: herramientas separadas, múltiples consolas y flujos de datos con latencia. Unificar el stack busca reducir complejidad y acelerar el paso de piloto a producción.
¿Qué significa “memoria persistente para agentes de IA” en este contexto?
Se refiere a sostener el estado y el contexto de trabajo de agentes durante periodos prolongados, apoyándose en una capa de datos y recuperación optimizada, de modo que los agentes puedan operar en tareas complejas sin perder información relevante.
¿Qué aporta Polaris en una estrategia de IA híbrida y multicloud?
Polaris se plantea como un plano de control para que infraestructura y datos distribuidos (entre CPD y nubes) se gestionen como una sola “flota”, facilitando operaciones coherentes cuando entrenamiento e inferencia se ejecutan en entornos diferentes.