Dell Technologies ha aprovechado la GTC 2026 para reforzar su Dell AI Data Platform with NVIDIA, una propuesta con la que quiere atacar uno de los problemas más repetidos en la IA empresarial: no tanto la falta de GPUs, sino la dificultad para convertir datos dispersos, lentos o mal gobernados en combustible útil para agentes y aplicaciones de IA. La compañía presentó nuevas capacidades de orquestación de datos, aceleración con GPUs NVIDIA y varias novedades de almacenamiento pensadas para cargas de trabajo agentic AI.
El mensaje de Dell es claro: muchas empresas no fallan al desplegar pilotos de IA por falta de modelos, sino porque sus datos siguen atrapados en silos, sin suficiente estructura, contexto de negocio o gobierno. En ese escenario, la IA se queda sin acceso fiable a la información que necesita para razonar, recuperar contexto o actuar. Dell asegura que su plataforma, integrada como parte de la Dell AI Factory with NVIDIA, busca resolver precisamente ese bloqueo.
La compañía acompaña el anuncio con cifras ambiciosas: hasta 12 veces más velocidad en indexación vectorial, 3 veces más rapidez en procesamiento de datos y 19 veces menos tiempo hasta el primer token frente a enfoques tradicionales. Conviene leer esos números con cautela, porque proceden de pruebas internas de Dell y de comparativas definidas por el propio fabricante, pero sí sirven para entender dónde quiere poner el foco: en la capa de datos, no solo en la de inferencia o entrenamiento.
Un motor de orquestación para convertir datos empresariales en datasets listos para IA
La pieza más estratégica del anuncio es el nuevo Dell Data Orchestration Engine, que Dell describe como un motor no-code/low-code capaz de automatizar el ciclo completo de los datos para IA: descubrir, etiquetar, enriquecer y transformar información estructurada, no estructurada y multimodal en conjuntos de datos gobernados y preparados para producción. Dell añade que esta capa está impulsada por tecnología procedente de su reciente adquisición de Dataloop, una pista bastante clara de hacia dónde quiere evolucionar su plataforma.
Ese motor no se queda solo en la automatización de pipelines. Dell explica que combina active learning y flujos human-in-the-loop, con la idea de mejorar la calidad de los datasets y la precisión de los modelos sin perder control de gobierno. Además, el Data Orchestration Engine Marketplace permitirá desplegar flujos de trabajo listos para producción apoyados en una librería curada de NVIDIA NIM microservices, NVIDIA AI Blueprints y más de 200 modelos, aplicaciones y plantillas.
En paralelo, Dell ha confirmado soporte para el último NVIDIA AI-Q blueprint, una referencia abierta de NVIDIA para crear agentes empresariales capaces de percibir, razonar y actuar sobre conocimiento corporativo. En el anuncio oficial de NVIDIA, AI-Q aparece como una de las piezas centrales de su nueva estrategia de software para agentes, con una arquitectura híbrida que combina modelos frontier para orquestación y modelos abiertos Nemotron para investigación y reducción de costes. Dell quiere enganchar esa lógica a su propia capa de preparación y recuperación de datos.
SQL conversacional y aceleración CUDA-X dentro de la plataforma de datos
Otra novedad relevante es la llegada de un AI Assistant dentro del Dell Data Analytics Engine, pensado para llevar una interfaz conversacional directamente al análisis SQL. La idea es que usuarios de negocio puedan consultar, visualizar y colaborar sobre productos de datos gobernados sin depender tanto del conocimiento experto de SQL. Dell presenta esto como una forma de democratizar el acceso al dato y acelerar la toma de decisiones, especialmente en organizaciones que quieren desplegar agentes capaces de consultar datos estructurados de forma más autónoma.
También habrá aceleración de la propia capa de datos con NVIDIA RTX PRO Blackwell Server Edition GPUs y bibliotecas CUDA-X como cuDF para procesamiento estructurado y cuVS para indexación y búsqueda vectorial. Según Dell, esta combinación permitirá hasta 3 veces más rendimiento en consultas SQL y hasta 12 veces más velocidad en indexación vectorial, aunque, de nuevo, se trata de cifras apoyadas en análisis internos y comparativas definidas por el proveedor.
Almacenamiento para que las GPUs no se queden esperando
Dell dedica una parte muy importante del anuncio al almacenamiento, probablemente porque ahí está uno de los grandes frenos actuales de la IA empresarial a escala. La compañía sostiene que, cuando los proyectos pasan del piloto a producción, muchas arquitecturas tradicionales acaban dejando GPUs caras infrautilizadas porque el almacenamiento no entrega datos con suficiente velocidad o consistencia. Su respuesta llega por dos vías: Dell Lightning File System y Dell Exascale Storage.
Dell Lightning File System se presenta como un sistema de ficheros paralelo orientado a entrenamiento e inferencia de IA, con hasta 150 GB/s por rack y una densidad de rendimiento muy superior, según Dell, a la de varios competidores de almacenamiento flash scale-out. Su objetivo declarado es evitar cuellos de botella y mantener las GPUs alimentadas de datos de forma continua. Dell Exascale Storage, por su parte, quiere ofrecer una plataforma 3-en-1 para AI y HPC donde convivan recursos de archivo, objeto y sistema de ficheros paralelo sobre hardware común basado en servidores Dell PowerEdge.
Uno de los elementos más llamativos es el soporte anunciado para NVIDIA CMX context memory storage platform y para el uso de KV Cache en almacenamiento compartido sobre PowerScale, ObjectScale y Lightning File System. La lógica aquí es especialmente importante para agentes y modelos de contexto largo: descargar parte del KV cache desde la memoria GPU a almacenamiento compartido de alta velocidad para no agotar la memoria aceleradora en interacciones largas o sistemas que necesiten mantener mucho contexto histórico. Dell lo plantea como una función clave para cargas de trabajo de agentic AI y razonamiento con contexto extenso.
Ese enfoque enlaza directamente con otra de las grandes novedades presentadas por NVIDIA en GTC 2026: BlueField-4 STX, una arquitectura de referencia para almacenamiento acelerado orientada precisamente al razonamiento de contexto largo en IA agentic. NVIDIA afirma que STX puede ofrecer hasta 5 veces más rendimiento por token, 4 veces más eficiencia energética y 2 veces más velocidad de ingestión frente a sistemas convencionales, y cita a Dell entre los partners de almacenamiento e infraestructura que construirán sobre ese diseño modular.
Dell quiere vender una ruta completa, no solo piezas sueltas
Más allá de la tecnología concreta, el anuncio encaja en una narrativa más amplia. El mismo 16 de marzo, Dell reivindicó que su Dell AI Factory with NVIDIA ya suma más de 4.000 clientes y que algunos adoptantes tempranos habrían visto hasta 2,6 veces de ROI en el primer año, según un estudio encargado a Enterprise Strategy Group. Son cifras promocionales y basadas en escenarios modelizados, pero ayudan a entender la tesis comercial de Dell: vender una ruta integrada de principio a fin para pasar de pilotos de IA a despliegues empresariales reales.
En esa tesis, la plataforma de datos ocupa ahora un papel central. Dell ya no quiere competir solo con servidores y almacenamiento como piezas aisladas, sino con una capa que una orquestación de datos, aceleración para preparación y búsqueda, almacenamiento paralelo y soporte para arquitecturas de agentes. Dicho de otro modo: intenta vender la idea de que el éxito de la IA empresarial no depende solo del modelo, sino de lo rápido que una empresa puede convertir su información interna en un sistema útil, gobernado y servible a escala.
Preguntas frecuentes
¿Qué ha anunciado exactamente Dell?
Dell ha presentado nuevas capacidades para su Dell AI Data Platform with NVIDIA, incluyendo un motor de orquestación de datos, aceleración con GPUs NVIDIA en la propia capa de datos y nuevas propuestas de almacenamiento optimizadas para cargas de trabajo de IA y agentes.
¿Qué es el Dell Data Orchestration Engine?
Es un motor no-code/low-code que automatiza el ciclo completo de datos para IA: descubrimiento, etiquetado, enriquecimiento y transformación de datos estructurados, no estructurados y multimodales en datasets gobernados y listos para uso en IA. Dell indica que está apoyado en tecnología procedente de su adquisición de Dataloop.
¿Qué relación tiene esto con NVIDIA AI-Q?
Dell ha anunciado soporte para NVIDIA AI-Q, un blueprint abierto de NVIDIA para construir agentes empresariales que puedan percibir, razonar y actuar sobre conocimiento corporativo. La idea de Dell es integrar sus motores de datos y almacenamiento en ese tipo de arquitecturas agénticas.
¿Por qué habla Dell de KV cache en almacenamiento compartido?
Porque en cargas de trabajo de contexto largo y agentic AI el KV cache puede consumir mucha memoria GPU. Dell plantea descargar parte de ese contexto a almacenamiento compartido de alta velocidad para mejorar la utilización de GPUs sin perder continuidad en la interacción.
¿Cuándo llegarán estas novedades?
Según Dell, el Data Orchestration Engine y su marketplace estarán disponibles en Q1 CY26, el AI Assistant del motor analítico llegará en la primera mitad de 2026, Lightning File System estará disponible en abril de 2026 y Exascale Storage se espera para principios de la segunda mitad de 2026.
vía: dell