Dell refuerza su AI Data Platform: más rendimiento para RAG, búsqueda vectorial y datos no estructurados con Elastic, Starburst y NVIDIA

Dell Technologies ha anunciado nuevas capacidades en su AI Data Platform, el pilar de datos del ecosistema Dell AI Factory con el que la compañía quiere ayudar a las empresas a transformar datos distribuidos y en silos en resultados de IA medibles. La propuesta pone el foco en un punto crítico para cualquier organización que esté pasando de pilotos a producción: separar almacenamiento y procesamiento para eliminar cuellos de botella, mantener el control on-prem y dar flexibilidad a cargas que van desde entrenamiento y fine-tuning hasta RAG e inferencia.

La actualización se articula sobre cuatro bloques: motores de almacenamiento, motores de datos, ciberresiliencia integrada y servicios de gestión de datos. El paquete llega integrado con el diseño de referencia de NVIDIA AI Data Platform y se apoya en alianzas con Elastic y Starburst para acelerar búsqueda semántica, analítica federada y workflows agentic.

Por qué importa: del “data swamp” a resultados de IA en tiempo real

La adopción de IA empresarial está chocando con un hecho tozudo: los datos están repartidos, son multiformato y cambian. Con su AI Data Platform, Dell propone una base abierta y modular para unificar tuberías, activar metadatos y evitar bloqueos entre capas de almacenamiento, cómputo y modelos. El objetivo declarado es que el equipo de datos pueda conectar sin fricción repositorios NAS y S3, orquestar ingestión incremental para mantener al día índices y vector stores, y desplegar búsquedas híbridas (keyword + vector) aceleradas por GPU con control on-prem.

Motores de almacenamiento: PowerScale y ObjectScale, con ajustes para IA

Los motores de almacenamiento de la plataforma —Dell PowerScale (NAS) y Dell ObjectScale (objeto S3-nativo)— son la base para colocar los datos donde rinden mejor y moverlos sin fricciones entre etapas (preparación, entrenamiento, inferencia, RAG).

PowerScale: NAS paralelo para IA, validado a escala GPU

  • PowerScale ofrece acceso multiprotocolo y rendimiento paralelo para entrenamiento, fine-tuning, inferencia y pipelines RAG.
  • Con la nueva integración de NVIDIA GB200 y GB300 NVL72 y actualizaciones de software, Dell promete rendimiento consistente, gestión simplificada a escala y compatibilidad con aplicaciones y stacks habituales en IA.
  • El PowerScale F710 ha logrado la certificación NVIDIA Cloud Partner (NCP) para almacenamiento de alto rendimiento. Según Dell, el sistema escala a más de 16.000 GPU con hasta 5× menos espacio de rack, 88 % menos de switches de red y hasta 72 % menos consumo energético frente a alternativas comparables.

ObjectScale: objeto S3 con aceleración y mejoras para objetos pequeños

  • ObjectScale —que Dell presenta como “la plataforma de objeto de mayor rendimiento”— aporta S3 nativo escalable para cargas masivas de IA. Puede desplegarse como appliance o en una nueva opción software-defined sobre servidores Dell PowerEdge, que es hasta 8 veces más rápida que la generación previa de objeto all-flash, de acuerdo con la compañía.
  • Avances destacados:
    • S3 sobre RDMA (en tech preview en diciembre de 2025): hasta 230 % más throughput, 80 % menos latencia y 98 % menos uso de CPU que S3 tradicional.
    • Mejora de rendimiento/eficiencia en objetos pequeños (10 KB): hasta 19 % más throughput y hasta 18 % menos latencia en grandes despliegues.
    • Integración más profunda con AWS S3 y compresión a nivel de bucket para reducir superficie de datos y costes asociados a almacenamiento y movimiento.

La combinación PowerScale + ObjectScale permite a los equipos de datos elegir la capa adecuada para cada etapa —por ejemplo, NAS para scratch de entrenamiento y objeto para data lakes y repositorios de RAG— manteniendo políticas comunes de seguridad, telemetría y ciberresiliencia.

Motores de datos: búsqueda semántica con Elastic y analítica federada con Starburst

Además del almacenamiento, Dell amplía sus motores de datos: herramientas especializadas para organizar, consultar y activar la información en flujos de IA.

Data Search Engine (con Elastic): RAG y semántica a escala

Desarrollado en colaboración con Elastic, el Data Search Engine apunta a RAG, búsqueda semántica y pipelines generativos. Se integra con MetadataIQ para descubrir y catalogar datos, y puede buscar miles de millones de ficheros en PowerScale y ObjectScale mediante metadatos granulares. Entre las ventajas operativas:

  • Ingesta incremental: solo incorpora archivos actualizados, ahorrando cómputo y manteniendo vector DB al día.
  • SDKs conocidos: los desarrolladores pueden crear aplicaciones RAG en LangChain u otros marcos.
  • Gobernanza: ancla la búsqueda en repositorios controlados por TI, con auditoría y seguridad integradas.

Data Analytics Engine (con Starburst): del federation al “agentic SQL”

Con Starburst, Dell fortalece su Data Analytics Engine para lanzar consultas sin mover datos a través de spreadsheets, bases de datos, cloud warehouses y lakehouses. Las novedades incluyen:

  • Agentic Layer: una capa que usa LLM para documentar automáticamente, extraer insights y embebar IA en flujos SQL en segundos.
  • Acceso unificado a vector stores (Iceberg, el propio Data Search Engine, PostgreSQL + PGVector, etc.) para facilitar RAG y búsqueda desde una sola puerta.
  • Monitorización y governance de modelos de nivel empresarial: seguimiento, auditoría y control de uso de IA.
  • MCP Server para Data Analytics Engine (febrero de 2026): habilita desarrollo de multiagentes y aplicaciones de IA sobre la capa analítica.

Búsqueda híbrida acelerada por GPU con NVIDIA cuVS

La plataforma incluirá integración con NVIDIA cuVS para búsqueda vectorial y híbrida (keyword + vector) acelerada por GPU. La promesa es rendimiento de nueva generación en vector search con despliegue turnkey: un entorno preparado para que TI lo ponga en marcha “de fábrica”, on-prem y a escala, aprovechando la infraestructura segura de Dell. Para equipos que hoy mantienen varios stacks de búsqueda y vectorización, el valor está en consolidar y estandarizar sin renunciar a prestaciones.

Qué dicen los actores: de “datos fragmentados” a “plataformas listas para producción”

Desde Dell, Arthur Lewis (ISG) enmarca el anuncio en una necesidad transversal: simplificar la complejidad de los datos, unificar pipelines y entregar datos AI-ready a escala, con casos prácticos que van de diagnóstico en tiempo real en sanidad a mantenimiento predictivo en industria. En NVIDIA, Justin Boitano subraya que la plataforma empuja una nueva generación de almacenamiento inteligente capaz de interpretar el significado de los datos. Elastic y Starburst destacan, respectivamente, el impulso a búsqueda/descubrimiento y a federación analítica, dos cuellos de botella típicos cuando el dato está en demasiados sitios. Y desde Maya HTT se pone el acento en telemetría en tiempo real y eficiencia con IA en sectores como el aeroespacial o el marítimo, apoyándose en PowerScale y la infraestructura NVIDIA.

Disponibilidad: calendario por hitos

  • PowerScale con integración NVIDIA GB200 / GB300 NVL72 y validación NCP: disponible.
  • ObjectScale S3 sobre RDMA: Tech Preview en diciembre de 2025.
  • Actualizaciones de ObjectScale (software): diciembre de 2025.
  • Data Analytics Engine Agentic Layer: febrero de 2026.
  • MCP Server para Data Analytics Engine: febrero de 2026.
  • Data Search Engine en Dell AI Data Platform: 1.º semestre de 2026.
  • Integración NVIDIA cuVS: 1.º semestre de 2026.

Claves para el CIO: cinco preguntas que conviene responder antes de implantar

  1. ¿Dónde están mis datos y qué SLA exige cada caso de uso?
    Mapear repositorios NAS, S3, bases relacionales/noSQL, hojas de cálculo, warehouses y lakehouses para decidir colocación (PowerScale vs. ObjectScale) y movimiento (qué, cuándo y cómo).
  2. ¿Cómo mantengo frescos los índices y las vector DB sin quemar cómputo?
    Activar ingesta incremental y metadatos (con MetadataIQ y/o catalogs) para recalcular solo lo necesario en RAG y búsqueda.
  3. ¿Qué stack de búsqueda y vectorización consolidar?
    Valorar la búsqueda híbrida con cuVS y la unificación de acceso a vectores (Iceberg, PGVector, etc.) para reducir fragmentación.
  4. ¿Qué guardrails necesito (seguridad y cumplimiento)?
    Definir perímetros, cifrado, auditoría y retención; aprovechar la ciberresiliencia integrada y el monitoreo de modelos para evitar usos no gobernados de IA.
  5. ¿Cómo medimos el ROI de RAG y búsqueda semántica?
    KPIs como latencia de respuesta, tasa de hit, coste por consulta, horas ahorradas en atención/soporte o precisión frente a ground truth ayudarán a priorizar inversiones.

Lectura crítica: promesas de rendimiento y madurez operativa

Las cifras que acompañan al anuncio —230 % más throughput y 80 % menos latencia en S3 sobre RDMA, hasta 8× en la opción software-defined de ObjectScale, o el salto de PowerScale F710 a más de 16.000 GPU con recortes drásticos de espacio, red y energía— pintan un escenario muy atractivo para cargas de IA con hambre de datos. La clave estará en llevar ese rendimiento al día a día: gobernanza, SLA de ingestión e indexado, coste total de vectorizar a escala y observabilidad de extremo a extremo para evitar que el “lago” vuelva a ser un pantano.

En paralelo, el empuje a workflows agentic sobre SQL y a búsqueda semántica gobernada sugiere que Dell intenta acercar las capacidades de IA a los equipos de datos, no solo a MLOps. Si el calendario se cumple y las integraciones Elastic/Starburst/cuVS llegan listas para producción, la plataforma puede recortar meses en implementaciones que hoy se atascan en pegamento entre herramientas.


Preguntas frecuentes

¿Qué diferencia a Dell AI Data Platform de un data lake tradicional?
No es solo almacenamiento: combina motores de datos (búsqueda semántica, analítica federada, governance de modelos) con motores de almacenamiento (NAS paralelo y objeto S3-nativo) y ciberresiliencia. Además, separa explícitamente datos y procesamiento para evitar cuellos de botella en entrenamiento, RAG e inferencia.

¿Qué aporta S3 sobre RDMA en ObjectScale para cargas de IA?
Tech preview desde diciembre de 2025, apunta a más rendimiento y menos latencia/CPU al transportar S3 sobre RDMA. En escenarios con inferencia intensiva, re-indexación o pipelines RAG a gran escala, puede reducir costes y acelerar SLAs de datos.

¿Cómo encaja NVIDIA cuVS en la plataforma?
Habilita búsqueda vectorial y híbrida (keyword + vector) acelerada por GPU en entornos on-prem, con despliegue turnkey. Para equipos que hoy mantienen múltiples motores y plugins de búsqueda, supone estandarizar y ganar rendimiento sin perder control.

¿Cuándo estarán disponibles las nuevas funciones y qué requiere su adopción?
La integración PowerScale + GB200/GB300 validada por NCP ya está disponible. ObjectScale S3 sobre RDMA y sus actualizaciones llegan en diciembre de 2025. La Agentic Layer y el MCP Server del Data Analytics Engine se lanzan en febrero de 2026. El Data Search Engine y la integración cuVS están previstos para el 1.º semestre de 2026. La adopción requiere coordinar red, seguridad, metadatos y pipelines existentes.

vía: dell

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×