Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

Oracle y AMD impulsan la supercomputación de IA: OCI desplegará más de 130.000 GPUs MI355X para acelerar el entrenamiento y la inferencia de modelos a escala

La nube de Oracle será una de las primeras en ofrecer superclusters de IA basados en la nueva generación de GPUs de AMD, rivalizando con los despliegues de NVIDIA y atrayendo a grandes clientes para el desarrollo de inteligencia artificial avanzada.

Oracle ha anunciado una alianza estratégica con AMD para llevar a su nube (Oracle Cloud Infrastructure, OCI) la última generación de aceleradores AMD Instinct MI355X, en un movimiento que refuerza la apuesta de la compañía por liderar el mercado de la supercomputación para IA. El acuerdo incluye el despliegue de un supercluster zettascale capaz de alojar hasta 131.072 GPUs MI355X, una cifra que representa uno de los mayores despliegues de hardware de IA en la nube a nivel mundial.

Rendimiento y eficiencia: claves del nuevo supercluster

La nueva oferta, disponible próximamente en OCI, promete a los clientes más del doble de rendimiento/precio respecto a la generación anterior de AMD. Los MI355X, presentados oficialmente en el evento Advancing AI de AMD en San José (California), están fabricados en tecnología de 3 nanómetros y basados en la arquitectura CDNA 4.

Entre sus principales características destacan:

  • 288 GB de memoria HBM3E y un ancho de banda de 8 TB/s por GPU.
  • Hasta 1.400 vatios por GPU y 64 GPUs por rack, con refrigeración líquida.
  • Soporte para 4-bit floating point (FP4), clave para inferencia de modelos generativos avanzados y grandes LLMs.
  • Incremento x2,8 en throughput, triplicando la potencia de cómputo respecto a la generación previa.
  • Comparativa frente a NVIDIA Blackwell: AMD afirma que su MI355X ofrece 1,6 veces más capacidad de memoria, el doble de rendimiento FP64 y el mismo ancho de banda que los nuevos GB200/B200.

Además, la nueva generación se apoya en la red avanzada de AMD Pollara NICs, con soporte RoCE y Ultra Ethernet Consortium para baja latencia y alta disponibilidad, crucial para tareas distribuidas de IA.

Una infraestructura abierta y sin dependencias

Uno de los puntos fuertes del acuerdo reside en la apuesta por el software open source y la ausencia de vendor lock-in: los clientes podrán utilizar el stack ROCm de AMD, compatible con los modelos y frameworks más populares, facilitando la migración de proyectos y la integración con arquitecturas híbridas.

La infraestructura está pensada para cubrir todo el ciclo de vida de la IA: desde el entrenamiento de modelos de lenguaje y visión a gran escala, hasta la inferencia ultraeficiente para aplicaciones generativas y agentes autónomos (agentic AI). Oracle subraya que sus clusters proporcionarán “tiempos mínimos de inferencia y entrenamiento, mayor eficiencia energética y una orquestación optimizada gracias a CPUs AMD Turin de última generación”.

Rivalidad tecnológica: NVIDIA Blackwell también en OCI

En paralelo al anuncio con AMD, Oracle ha hecho público que su supercluster con GPUs NVIDIA GB200 NVL72 (Blackwell) ya está disponible, sumándose así a la tendencia de ofrecer ambas arquitecturas punteras en la nube. El despliegue, que incluye también integración con la plataforma DGX Cloud Lepton de NVIDIA, eleva la capacidad total de OCI en IA a niveles inéditos y responde a la creciente demanda de cómputo intensivo por parte de empresas, gobiernos y startups.

Clientes y casos de uso: Seekr apuesta por Oracle y AMD

Entre los primeros clientes destaca la firma de IA Seekr, que ha firmado un acuerdo plurianual con OCI para entrenar la próxima generación de modelos de lenguaje y visión, incluyendo casos de uso en satélites y análisis de grandes volúmenes de datos sensoriales. Seekr valora la escalabilidad, el rendimiento multinodo y la flexibilidad internacional de la infraestructura Oracle–AMD, así como el soporte conjunto para la optimización de modelos y despliegues globales.

Perspectivas y competencia en la nube de IA

Oracle se posiciona así como uno de los “hyperscalers” pioneros en ofrecer clusters de IA de escala zettascale tanto con AMD como con NVIDIA, ampliando las opciones para empresas que necesitan máxima potencia de cálculo, eficiencia y flexibilidad. Este movimiento, que se suma a anuncios previos de despliegues de miles de GPUs GB200 en centros como Stargate (Texas), intensifica la competencia entre proveedores cloud para atraer proyectos de IA de última generación.

Según Oracle, “ofreceremos la infraestructura más diversa y eficiente para clientes que buscan entrenar e inferir modelos a escala masiva, apoyados por tecnología abierta, seguridad, flexibilidad y acuerdos comerciales competitivos”. AMD, por su parte, subraya la importancia de este hito para democratizar el acceso a la supercomputación de IA y responder a la explosión de la demanda global.

El futuro de la inteligencia artificial, y de la nube que la soporta, se juega hoy en los grandes data centers —y el acuerdo Oracle–AMD marca un nuevo capítulo en la carrera por la supremacía tecnológica.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×