HPE ha presentado el Compute Scale-up Server 3250, un servidor diseñado para grandes bases de datos en memoria y cargas críticas de negocio, con una cifra que resume bien hacia dónde se mueve la infraestructura empresarial: hasta 64 TB de memoria DDR5 en una arquitectura scale-up. El sistema, basado en procesadores Intel Xeon 6, se dirige especialmente a entornos SAP HANA, SAP Cloud ERP, RISE with SAP y aplicaciones transaccionales o analíticas que no pueden permitirse paradas prolongadas.
El anuncio llega en un momento en el que muchas compañías están revisando sus plataformas SAP, no solo por la migración a S/4HANA o a modelos cloud gestionados, sino también por el crecimiento de los datos, la presión de los análisis en tiempo real y la necesidad de consolidar cargas que antes podían quedar repartidas en varios sistemas. HPE intenta responder a ese escenario con un servidor de gran memoria compartida, pensado para empresas que prefieren escalar verticalmente antes que fragmentar determinadas cargas en múltiples nodos.
El HPE Compute Scale-up Server 3250 sucede al HPE Scale-up Server 3200 basado en Intel y se presenta como el primer servidor scale-up validado por el benchmark SAP BW Edition HANA con al menos 48 TB de memoria. La compañía afirma que el sistema está disponible desde configuraciones mínimas de cuatro sockets hasta un máximo de 16, con una arquitectura modular orientada a bases de datos en memoria, ERP, CRM, servicios financieros, sistemas de registro y cargas emergentes de IA agéntica.
Por qué importan 64 TB de memoria en SAP HANA
SAP HANA se apoya en una arquitectura en memoria para acelerar operaciones analíticas y transaccionales. Dicho de forma sencilla, cuanto más dato relevante puede mantenerse en memoria, menor es la dependencia de accesos a disco y mayor es la capacidad de ejecutar consultas, cierres financieros, planificación, análisis o procesos de negocio con baja latencia. En grandes corporaciones, esta diferencia puede afectar directamente a tiempos de cierre, análisis de inventario, reporting, experiencia de usuario y continuidad operativa.
El enfoque scale-up busca concentrar grandes volúmenes de memoria y capacidad de CPU en un único sistema lógico. Esto puede simplificar ciertos entornos frente a arquitecturas scale-out, donde la carga se reparte entre varios nodos y se depende más de la red para coordinar datos, transacciones y consultas. No significa que scale-up sea siempre mejor: en muchos escenarios, escalar horizontalmente sigue teniendo sentido. Pero para bases de datos en memoria muy grandes y cargas críticas con necesidades de consistencia, latencia y administración simplificada, un sistema scale-up de 64 TB abre margen para consolidar.
HPE destaca que el servidor incorpora un controlador externo de nodo dedicado que, según sus datos, ofrece una mejora de rendimiento hasta 100 veces superior al uso de Ethernet en despliegues scale-out. Es una afirmación propia del fabricante y debe leerse en el contexto de sus pruebas y arquitectura, pero apunta a una prioridad clara: reducir la dependencia de interconexiones generales cuando se trabaja con cargas de memoria compartida muy exigentes.
La memoria no es el único factor. El sistema se basa en Intel Xeon 6, una generación de procesadores orientada a mejorar densidad, eficiencia y rendimiento en centros de datos. Para SAP, la combinación de CPU, memoria, subsistema de E/S, resiliencia y certificaciones es crítica. No basta con sumar RAM: las empresas necesitan plataformas validadas, soporte de fabricante y garantías de compatibilidad con entornos SAP HANA certificados.
Seguridad, resiliencia y operación en cargas críticas
HPE sitúa la seguridad y la disponibilidad como parte central del servidor. El Compute Scale-up Server 3250 integra protección mediante HPE Integrated Lights Out, iLO, con una raíz de confianza basada en silicio, procesador de seguridad dedicado y firmware validado. La compañía también menciona protección frente a amenazas futuras mediante criptografía poscuántica, un punto que encaja con la preocupación creciente por la vida útil de los datos sensibles en entornos corporativos.
En resiliencia, el sistema incluye detección y corrección avanzada de errores de memoria, además de funciones de memory healing y deconfiguration. Estas capacidades permiten aislar o gestionar fallos de memoria para reducir el riesgo de caída completa del sistema. En cargas SAP críticas, esta parte suele ser tan importante como el rendimiento puro: una plataforma puede ser muy rápida, pero si no soporta fallos con elegancia, no sirve para procesos con tolerancia casi nula a la interrupción.
La disponibilidad es especialmente relevante para RISE with SAP y para organizaciones que están migrando sistemas esenciales hacia modelos híbridos o cloud gestionados. Aunque el mercado habla mucho de IA, la realidad de muchas empresas sigue pasando por ERP, bases de datos, finanzas, cadena de suministro, pedidos, facturación y sistemas de cliente. Son cargas menos llamativas que los modelos generativos, pero sostienen el negocio diario.
El nuevo servidor también refuerza la posición de HPE en infraestructura certificada para SAP. La compañía fue reconocida como líder en el IDC MarketScape Worldwide SAP HANA-Certified Servers Appliances 2026 Vendor Assessment, según recoge el comunicado. Este tipo de reconocimientos no sustituyen a una evaluación técnica propia, pero pesan en decisiones de grandes cuentas que buscan proveedores con trayectoria en SAP HANA, soporte global y capacidad de integración.
El contexto: modernización SAP, datos en tiempo real e IA empresarial
El lanzamiento encaja con una tendencia más amplia. Las empresas están modernizando sus plataformas SAP mientras aumentan el volumen de datos que quieren analizar en tiempo real. A esto se suma la presión de la IA empresarial, que necesita datos fiables, históricos consistentes y sistemas transaccionales bien integrados. Antes de desplegar agentes o analítica avanzada, muchas compañías deben resolver una cuestión básica: sus sistemas centrales tienen que responder con rapidez y estar disponibles.
HPE intenta posicionar el Compute Scale-up Server 3250 como una base para esa etapa. No solo para SAP HANA, sino también para cargas de análisis, sistemas de registro y aplicaciones críticas que requieren grandes espacios de memoria. La mención a workloads de IA agéntica debe interpretarse con prudencia: el servidor no compite con una plataforma GPU de entrenamiento, sino que puede servir como infraestructura de datos y transacciones donde los agentes empresariales consultan, procesan o automatizan operaciones sobre sistemas críticos.
Para los CIOs, la decisión de apostar por scale-up no será solo técnica. Habrá que valorar coste, licencias, disponibilidad, modelo de operación, integración con RISE with SAP, requisitos de soberanía, soporte, consumo energético y estrategia de nube híbrida. En algunos casos, consolidar en un gran servidor puede simplificar operación y reducir complejidad. En otros, una arquitectura distribuida puede aportar más flexibilidad. La clave estará en ajustar el diseño a la carga real, no a una tendencia genérica.
El HPE Compute Scale-up Server 3250 está disponible ya, según la compañía, y puede adquirirse a través del programa 90/9 Advantage de HPE Financial Services, con 90 días sin pagos y nueve meses adicionales al 1 %. Este tipo de financiación muestra otro aspecto del mercado: la modernización de infraestructura crítica no se decide solo por rendimiento, sino también por cómo se encaja en presupuestos plurianuales.
La carrera por la IA ha concentrado buena parte de la atención en GPUs, aceleradores y centros de datos masivos. Pero el anuncio de HPE recuerda que la infraestructura empresarial crítica sigue necesitando servidores especializados, memoria masiva y plataformas certificadas. La transformación digital de muchas compañías no empieza por entrenar un modelo, sino por conseguir que sus datos de negocio estén disponibles, protegidos y listos para operar en tiempo real.
Preguntas frecuentes
¿Qué es el HPE Compute Scale-up Server 3250?
Es un servidor de gran memoria compartida diseñado para bases de datos en memoria, cargas SAP HANA, SAP Cloud ERP, RISE with SAP y aplicaciones críticas de negocio.
¿Cuánta memoria soporta?
HPE indica que puede configurarse con hasta 64 TB de memoria DDR5, desde configuraciones de cuatro sockets hasta un máximo de 16.
¿Por qué es relevante para SAP HANA?
Porque SAP HANA trabaja con datos en memoria. Disponer de grandes capacidades de RAM en una plataforma certificada puede ayudar a ejecutar cargas analíticas y transaccionales exigentes con menor latencia.
¿Sustituye a una arquitectura scale-out?
No necesariamente. Scale-up y scale-out responden a necesidades distintas. El nuevo servidor está pensado para cargas donde concentrar memoria y CPU en un gran sistema puede simplificar operación y mejorar rendimiento.
vía: hpe