NetApp anunció un conjunto de productos que refuerzan su plataforma de datos empresarial para inteligencia artificial, con el foco puesto en pasar de pilotos a aplicaciones agenticas en producción. La novedad llega en dos frentes: NetApp AFX, un sistema all-flash con arquitectura desagregada basado en ONTAP, y NetApp AI Data Engine (AIDE), un servicio unificado que conecta, gobierna y acelera datos para IA sobre un único plano de control. Ambos se orientan a acelerar RAG e inferencia en entornos híbridos y multicloud, y podrán contratarse de forma directa o mediante suscripción Keystone STaaS.
AFX: almacenamiento all-flash desagregado para “fábricas de IA”
NetApp AFX separa rendimiento y capacidad para permitir que cada uno escale de forma independiente. El sistema, sustentado en ONTAP, aporta multi-tenancy seguro, ciberresiliencia y se ha diseñado para un escalado lineal hasta 128 nodos, con ancho de banda en TB/s y capacidad a escala exabyte. AFX está certificado como almacenamiento para NVIDIA DGX SuperPOD y mantiene las funciones clásicas de gestión de datos de ONTAP que miles de clientes ya utilizan en misión crítica.
Como complemento, NetApp introduce los nodos DX50 como data compute nodes, que habilitan un motor global de metadatos para catalogar en tiempo real el patrimonio de datos corporativo y aprovechar computación acelerada. Esta capa de metadatos está pensada para ofrecer visibilidad inmediata, reducir copias dispersas y servir como base de búsquedas semánticas y pipelines de IA que requieren altas tasas de acceso.
AI Data Engine: llevar la IA a los datos, no los datos a la IA
NetApp AIDE es un servicio de datos para IA que abarca desde la ingesta y preparación hasta el serving de aplicaciones generativas. Proporciona una vista global y actualizada del entorno ONTAP del cliente, detecta cambios, sincroniza sin duplicidades y aplica guardarraíles de seguridad y privacidad durante todo el ciclo de vida del dato. Se integra con la referencia NVIDIA AI Data Platform —incluida la pila NVIDIA AI Enterprise y los microservicios NIM— para vectorización y recuperación, a lo que suma compresión avanzada, descubrimiento semántico y flujos de trabajo guiados por políticas.
AIDE se ejecutará de forma nativa en el clúster AFX sobre los DX50, acercando la computación al dato a fin de reducir latencias y costes de movimiento. NetApp también adelanta soporte futuro para RTX PRO Servers con RTX PRO 6000 Blackwell Server Edition, ampliando opciones de aceleración para casos de uso que requieran mayor versatilidad en la capa de cómputo.
ANF se acerca a los servicios de Azure sin mover datos
Junto a AFX y AIDE, la compañía desveló dos mejoras estratégicas en Azure NetApp Files (ANF):
- Object REST API (versión preliminar pública): permite acceder a datos NFS/SMB de ANF como objetos directamente, sin necesidad de copiar a un object store aparte. Así, los mismos datasets pueden conectarse a Microsoft Fabric, Azure OpenAI, Azure Databricks, Azure Synapse, Azure AI Search, Azure Machine Learning y otros servicios, evitando duplicidades y acelerando la puesta en valor.
- Namespace global unificado en Azure con FlexCache: posibilita hacer visibles y editables en ANF datos almacenados en otros sistemas ONTAP —en el CPD o en múltiples nubes—, trasladando solo los bloques demandados. Además, SnapMirror facilita copias continuas, recuperación ante desastres automatizada y balanceo de cargas entre entornos, lo que encaja con escenarios híbridos exigentes (por ejemplo, EDA) y políticas estrictas de residencia y latencia.
Por qué importa: de pilotos a producción agentic
La propuesta conjunta ataca tres fricciones habituales en la adopción de IA empresarial:
- Fundación de datos elástica: al desagregar, las organizaciones amplían IOPS y ancho de banda para etapas intensivas (vectorización, semantic search, prefill de LLM) sin sobredimensionar capacidad; o crecen en capacidad sin pagar por rendimiento que no necesitan.
- Gobierno y eficiencia: AIDE convierte funciones antes artesanales —catalogación, detección de cambios, sincronización, protección de datos— en servicios gestionados con políticas coherentes entre on-prem y nube, reduciendo latencias de proyecto y errores por manipulación manual.
- Puentes nativos con Azure: ANF expone datasets de ficheros a servicios de datos e IA sin migraciones; al mismo tiempo, con FlexCache y SnapMirror se simplifica la movilidad de cargas, el DR y el uso mixto entre centros propios y la nube pública.
En conjunto, el objetivo es que “el dato esté siempre listo para IA”: localizable, vectorizado, gobernado y accesible desde cualquier nube con rendimiento y protección consistentes.
Modelos de consumo y disponibilidad
Los nuevos productos podrán adquirirse en modalidad tradicional o a través de NetApp Keystone STaaS, el modelo por suscripción orientado a consumo bajo demanda. La compañía exhibirá sesiones y demostraciones en NetApp INSIGHT 2025 (Las Vegas, del 14 al 16 de octubre), donde mostrará flujos completos de RAG e inferencia sobre la plataforma con aceleración de NVIDIA.
Qué deberán valorar los equipos técnicos
- Arquitectura y escalado: el ajuste fino entre número de nodos, ancho de banda efectivo y capacidad marcará el coste total en producción, especialmente en pipelines con picos de vectorización o serving concurrente.
- Gobernanza y guardrails: la traslación de políticas entre on-prem y nube será clave para sectores regulados; el hecho de que AIDE acompañe el dato con políticas ayuda a auditar y a contener riesgos.
- Costes de datos en movimiento: el Object REST API de ANF reduce copias, pero cada patrón de acceso con servicios de Azure tendrá su perfil de consumo; convendrá modelar e2e rendimiento y costes antes de escalar.
- Futuras integraciones: el soporte anunciado para RTX PRO Servers amplía el abanico de aceleración; las decisiones de hardware deberán alinearse con la mezcla real de cargas (entrenamiento ligero, fine-tuning, inferencia larga, agentes multimodales).
En resumen, NetApp quiere consolidarse como plataforma de datos nativa para IA: AFX como base all-flash desagregada y AIDE como motor de datos de IA integrado, con conexiones directas a servicios de Azure que minimizan movimientos y duplicaciones. La premisa es que las empresas puedan indexar, buscar y servir información no estructurada a escala —con gobierno y resiliencia— para acelerar el paso de casos de uso piloto a aplicaciones agenticas que aporten impacto real al negocio.
vía: netapp