Oracle ha anunciado la disponibilidad general de sus nuevas instancias bare metal en Oracle Cloud Infrastructure (OCI) basadas en AMD Instinct™ MI355X, la generación que sucede a MI300X y que llega con más memoria HBM3e, más ancho de banda y nuevas precisiones FP4/FP6/FP8 gracias a la arquitectura CDNA 4. Con este lanzamiento, Oracle afirma ser el primer hiperescalador en ofrecer públicamente MI355X y el único que combina en catálogo MI355X y MI300X.
Qué aporta MI355X sobre la generación anterior
- Memoria y ancho de banda por GPU: 288 GB HBM3e (+50 %) y 8 TB/s de ancho de banda (+51 %).
- Precisión y rendimiento: soporte FP4/FP6/FP8 en CDNA 4 y ≈2,5× de mejora en FP8/FP16 frente a la generación previa (CDNA 3).
- Recursos de sistema (por servidor): CPU EPYC 5.ª gen (128 núcleos), 3 TB DDR5, 2,3 TB HBM3e agregada (8×288 GB) y 61,44 TB de almacenamiento local NVMe (+100 %).
- Red y escalabilidad: 400 Gbps de red “front-end” (×4) y racks refrigerados por líquido que escalan hasta 64 GPUs por bastidor; 3.200 Gbps de red de clúster para entrenamiento distribuido.

La nueva instancia bare metal de OCI (BM.GPU.MI355X.8)
- Nombre: BM.GPU.MI355X.8
- Aceleradores: 8× AMD Instinct™ MI355X (288 GB por GPU)
- Memoria GPU agregada: 2,3 TB HBM3e
- CPU / RAM del sistema: 128 núcleos AMD EPYC 5.ª gen + 3 TB DDR5
- Almacenamiento local: 61,44 TB
- Red: 400 Gbps (front-end) + 3.200 Gbps (clúster)
- Precio: desde 8,60 $/hora (según Oracle)
Uso objetivo: entrenamiento de LLMs y modelos multimodales de gran tamaño, inferencia en tiempo real de agentes y MoE, tareas de contexto largo (RAG, sumarios) y HPC (CAE, CFD, gemelos digitales, genómica, clima, finanzas, GNN).
Zettascale en la nube: hasta 131.072 GPUs y RDMA de ultra baja latencia
Oracle recuerda que su OCI Supercluster Zettascale —la base del ecosistema de entrenamiento de IA a gran escala de la compañía— escala hasta 131.072 GPUs con red RDMA de alto rendimiento y latencia ultra baja, lo que lo sitúa, en palabras de Oracle, como el mayor “superordenador” de IA en la nube. En ese tejido, MI355X aporta “≈3× de potencia de cómputo” y “+50 % de memoria HBM” frente a la generación anterior, acelerando el time-to-train y la eficiencia de los jobs distribuidos.
Ecosistema abierto (ROCm) y compatibilidad
Las instancias MI355X en OCI se apoyan en ROCm™, la plataforma de cómputo abierto de AMD. Además de frameworks estándar (PyTorch, TensorFlow, ONNX Runtime, Triton), AMD/Oracle destacan vías de portado de CUDA a ROCm para facilitar la migración sin reescrituras extensas.
Casos de cliente
- Absci (biotech): acelera descubrimiento de fármacos con IA generativa (MD a gran escala, diseño de anticuerpos). Reporta 2,5 µs de latencia inter-GPU, throughput en el orden de TB/s y ausencia de sobrecarga de hipervisor en OCI.
- Seekr (IA explicable): acuerdo multianual para entrenar modelos y agentes de nueva generación a escala global sobre OCI + AMD, priorizando compute denso multinodo y presencia internacional.
Por qué importa
- Memoria y ancho de banda: los 288 GB HBM3e por GPU y los 8 TB/s abren la puerta a contextos más largos, lotes mayores y menos offloading al sistema, clave en MoE y RAG.
- Coste/rendimiento: un precio de entrada desde 8,60 $/h para una instancia de 8 GPUs MI355X en bare metal es una señal agresiva en un mercado tensionado por la disponibilidad y el coste de GPU.
- Escala: la combinación de networking (400 Gbps FE / 3,2 Tbps clúster), racks refrigerados por líquido y Zettascale apunta a clusters grandes y estables para pasar de POCs a IA industrializada.
Cómo empezar
Las instancias BM.GPU.MI355X.8 ya pueden solicitarse en OCI y estarán disponibles en la segunda mitad del próximo año natural, integradas en la familia de infraestructura de IA de Oracle junto a MI300X. Oracle ha publicado recursos adicionales en el marco de Oracle AI World 2025 con detalles de producto, keynotes y documentación técnica.
Preguntas rápidas
¿En qué mejora MI355X a MI300X?
Más HBM3e (288 GB por GPU), +51 % de ancho de banda (8 TB/s), nuevas precisiones FP4/6/8 con CDNA 4 y mejoras de sistema (CPU, RAM, NVMe, red).
¿Para qué cargas es idóneo?
Entrenamiento e inferencia de LLMs multimodales, MoE, agentes y contextos largos, además de HPC (CAE/CFD, genómica, clima, finanzas, GNN).
¿Qué ofrece OCI a nivel de clúster?
Red RDMA de ultra baja latencia, racks de refrigeración líquida, superclúster Zettascale hasta 131.072 GPUs y controles de soberanía en nube distribuida.
¿Es compatible con mi stack actual?
Soporta ROCm y frameworks estándar; existen rutas de portado desde CUDA a ROCm sin reescrituras masivas, según AMD/Oracle.
vía: blogs.oracle