Hewlett Packard Enterprise presenta novedades en computación acelerada, almacenamiento y observabilidad optimizados para la arquitectura validada NVIDIA Enterprise AI Factory
En el marco de Computex 2025, Hewlett Packard Enterprise (HPE) ha anunciado una expansión significativa de su colaboración con NVIDIA para dar forma a la próxima generación de fábricas de inteligencia artificial empresariales (AI Factories). La nueva propuesta conjunta incluye mejoras en almacenamiento, servidores, nube privada y software de gestión, todo ello orientado a cubrir el ciclo completo de vida de la IA: desde la ingestión de datos hasta el entrenamiento y la inferencia.
“Estamos construyendo la base para que las empresas puedan aprovechar la inteligencia como nuevo recurso industrial, desde el centro de datos hasta la nube y el edge”, afirmó Jensen Huang, fundador y CEO de NVIDIA.
HPE Private Cloud AI: IA privada escalable con seguridad y velocidad
El sistema HPE Private Cloud AI, desarrollado en colaboración con NVIDIA, se posiciona como una solución de nube privada para IA que integra computación acelerada y herramientas específicas como NVIDIA NIM, SDKs y modelos preentrenados. A partir del verano de 2025, esta plataforma también soportará actualizaciones “feature branch” de NVIDIA AI Enterprise, permitiendo a los desarrolladores experimentar con nuevas funciones en entornos de validación antes de escalar a producción.
Esta infraestructura está optimizada para aplicaciones de IA generativa (GenAI) y IA agéntica, y está alineada con el diseño validado de NVIDIA Enterprise AI Factory.
Nuevo almacenamiento HPE Alletra MP X10000 con SDK para la plataforma de datos de NVIDIA
HPE anunció también una integración estratégica entre su nueva solución de almacenamiento Alletra Storage MP X10000 y la plataforma de datos de IA de NVIDIA. El SDK proporcionará funcionalidades avanzadas como:
- Indexación vectorial y enriquecimiento de metadatos.
- Acceso directo a memoria entre GPUs y almacenamiento (RDMA).
- Composición modular para escalar capacidad y rendimiento por separado.
Este flujo de trabajo optimiza el procesamiento de datos no estructurados para inferencia, entrenamiento y aprendizaje continuo, esenciales en entornos donde la IA agéntica necesita acceder en tiempo real a datos fiables y contextualizados.
Servidor HPE ProLiant DL380a Gen12: potencia validada por benchmarks
El servidor HPE ProLiant Compute DL380a Gen12, que ha liderado más de 50 pruebas de rendimiento MLPerf v5.0, estará disponible con hasta 10 GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition a partir del 4 de junio. Las capacidades incluyen:
- Refrigeración por aire y refrigeración líquida directa (DLC).
- Seguridad reforzada con iLO 7 y post-quantum cryptography readiness.
- Gestión avanzada de operaciones con HPE Compute Ops Management.
Este servidor se suma a otros modelos líderes de la gama, como el DL384 Gen12 con procesadores NVIDIA GH200 NVL2 y el Cray XD670, que encabezó 30 benchmarks de inferencia en LLMs y visión por computador.
Observabilidad total con HPE OpsRamp
HPE OpsRamp, el software de gestión IT basado en SaaS, añade soporte para los nuevos GPUs RTX PRO 6000 Blackwell. Las funciones destacadas incluyen:
- Monitorización del rendimiento de GPU y consumo energético.
- Automatización de respuestas ante eventos críticos (como sobrecalentamiento).
- Predicción de necesidades de recursos.
- Gestión de cargas de trabajo distribuidas en entornos híbridos.
Con integración directa con tecnologías de red y cómputo acelerado de NVIDIA como BlueField, Quantum InfiniBand y Base Command Manager, HPE ofrece una plataforma completa para la observabilidad de IA de pila completa.
Disponibilidad
- HPE Private Cloud AI con soporte para modelos “feature branch” estará disponible este verano.
- El SDK del Alletra X10000 también llegará en verano de 2025.
- El DL380a Gen12 con RTX PRO 6000 Blackwell podrá encargarse desde el 4 de junio.
- OpsRamp Software estará disponible para los nuevos GPUs en su lanzamiento.