AMD acelera la supercomputación mundial: de Alice Recoque a las fábricas de IA Lux y Discovery

La revolución de la supercomputación ya no va solo de resolver ecuaciones imposibles, sino de entrenar modelos de inteligencia artificial que ayuden a diseñar nuevos materiales, entender enfermedades complejas o gestionar redes eléctricas enteras. En ese tablero, AMD se ha colocado en el centro de la partida con una combinación de hardware de alto rendimiento y una capa de software abierta para escalar la IA en empresas y centros de investigación.

Su último anuncio reúne varias piezas clave: un nuevo superordenador exascale en Europa, dos “fábricas de IA” en Estados Unidos, más presencia en los rankings Top500 y Green500, y una plataforma de software, AMD Enterprise AI Suite, pensada para llevar la IA desde el laboratorio hasta producción en cuestión de minutos.


Alice Recoque: Francia se estrena en la liga exascale

Europa da un paso de gigante con Alice Recoque, el nuevo superordenador exascale que se construirá en Francia y que será el primero del país y el segundo de Europa en superar la barrera del exaflop en rendimiento de coma flotante de doble precisión (HPL). El sistema estará alojado por la agencia francesa GENCI, operado por el CEA y construido junto a Eviden, con tecnología de nueva generación de AMD tanto en CPU como en GPU.

Alice Recoque combinará procesadores AMD EPYC de próxima generación, con nombre en clave “Venice”, y aceleradores AMD Instinct MI430X, diseñados específicamente para cargas de trabajo de alto rendimiento y modelos de IA de frontera. El objetivo es superar el exaflop de rendimiento HPL, lo que lo situará entre los superordenadores más potentes del continente para simulación científica tradicional, a la vez que actúa como “fábrica de IA” europea para proyectos en clima, energía, industria o salud.

Más allá de la potencia bruta, el sistema está concebido con una fuerte presión en eficiencia energética y soberanía tecnológica: reducir el consumo por cálculo y, al mismo tiempo, asegurar que la capacidad de cómputo crítica se despliega dentro de Europa, con componentes y arquitectura bajo control europeo y de socios de confianza.


Cuatro de los diez superordenadores más rápidos… y una huella creciente

El anuncio llega en un momento dulce para AMD en el ámbito de la supercomputación. La compañía afirma que sus tecnologías ya alimentan cuatro de los diez superordenadores más rápidos del planeta, incluyendo Frontier —el primer sistema exascale operativo del mundo— y El Capitan, que encabeza actualmente la lista Top500.

En total, 177 sistemas del Top500 se basan en hardware de AMD, lo que representa aproximadamente un 35 % de los superordenadores más potentes del mundo. En el Green500, la clasificación que mide la eficiencia energética (rendimiento por vatio), 26 de los 50 sistemas más eficientes también utilizan tecnología de la compañía.

Este liderazgo no se limita a los grandes centros nacionales. AMD está empujando su arquitectura EPYC hacia la nube con instancias HPC específicas: Microsoft Azure ha hecho disponible de forma general las máquinas virtuales HBv5 para cargas de alto rendimiento basadas en CPU, mientras que Google Cloud ofrece las H4D, que multiplican casi por cuatro el rendimiento de la generación anterior C2D en un conjunto de cargas típicas de HPC, desde simulaciones industriales hasta predicción meteorológica y aplicaciones en salud. En paralelo, otros proveedores como AWS han lanzado instancias especializadas basadas en EPYC para cómputo técnico intensivo.

La idea es clara: que el mismo ecosistema de hardware que impulsa superordenadores como Frontier o El Capitan esté también disponible “como servicio” en la nube para empresas y laboratorios que no pueden construir un sistema propio, pero sí alquilar miles de núcleos durante días u horas.


Lux y Discovery: fábricas de IA soberana en Estados Unidos

En el terreno de la IA de frontera, el movimiento más llamativo es el acuerdo entre AMD y el Departamento de Energía de Estados Unidos (DOE) para construir dos nuevos superordenadores centrados en IA en el laboratorio nacional de Oak Ridge (ORNL): Lux y Discovery. El proyecto, valorado en torno a 1 000 millones de dólares, se enmarca en la estrategia de “IA soberana” estadounidense y en el llamado American AI Stack, un esfuerzo por disponer de infraestructura propia para entrenar modelos de nueva generación.

Lux será el primero en llegar, con despliegue previsto a partir de 2026. Está descrito como la primera “AI Factory” dedicada a la ciencia en Estados Unidos: un sistema diseñado para entrenar y desplegar modelos fundacionales que impulsen avances en materiales, biología, energía limpia o seguridad nacional. Utilizará procesadores de 5.ª generación AMD EPYC, aceleradores AMD Instinct MI355X y redes programables AMD Pensando, en una arquitectura optimizada tanto para entrenamiento como para inferencia de modelos de gran tamaño.

Discovery, por su parte, será el próximo superordenador insignia de ORNL y heredero de Frontier. Se apoyará en GPUs AMD Instinct MI430X y CPUs EPYC “Venice”, integradas en la nueva plataforma HPE Cray de supercomputación. Su llegada está prevista para el periodo 2028–2029 y buscará ir más allá en rendimiento y eficiencia energética, combinando cómputo clásico y cargas de IA a gran escala para aplicaciones que van desde la energía de fusión hasta la simulación de materiales avanzados o la ciberseguridad.

Ambos sistemas se conciben como pilares de la infraestructura de IA soberana de Estados Unidos, con acceso compartido entre laboratorios nacionales, universidades y socios industriales.


Del laboratorio al data center corporativo: AMD Enterprise AI Suite

La otra pieza que AMD ha puesto sobre la mesa es de software. La compañía ha presentado AMD Enterprise AI Suite, una plataforma abierta y unificada para que empresas de todos los tamaños puedan desarrollar, desplegar y gestionar cargas de trabajo de IA a escala sobre GPUs AMD Instinct.

La suite está construida como una pila completa, nativa de Kubernetes, que conecta la infraestructura de cómputo (bare metal o nube) con herramientas de orquestación, inferencia y gobierno del ciclo de vida de los modelos. Entre sus componentes destacan:

  • AMD Inference Microservices (AIMs): contenedores de inferencia preconstruidos que empaquetan modelos, motores y configuración optimizada para hardware de AMD, con APIs compatibles con OpenAI y soporte para modelos de pesos abiertos.
  • AMD AI Workbench: un entorno de desarrollo para científicos de datos y equipos de IA, con flujos de trabajo de fine-tuning de bajo código, workspaces basados en notebooks o IDEs, y herramientas para gestionar despliegues de AIMs.
  • AMD Resource Manager: un plano de control para gestionar clústeres de GPU, con planificación inteligente de cargas, cuotas por equipos, monitorización de métricas y políticas de acceso.

La propuesta de valor es permitir que una empresa pase de servidores “en bruto” a una plataforma de IA en producción en minutos, utilizando componentes abiertos y evitando depender de soluciones propietarias. Para los responsables de TI, esto significa más control sobre costes, gobernanza y seguridad; para los equipos de datos, una forma más directa de acceder a GPUs y desplegar modelos en producción.


Ciencia en modo acelerado: proteínas, materiales y más allá

Más allá de la infraestructura, AMD pone ejemplos concretos de cómo esta capacidad de cómputo se traduce en ciencia. En colaboración con el Lawrence Livermore National Laboratory y la Universidad de Columbia, se ha completado en El Capitan uno de los mayores y más rápidos flujos de trabajo de predicción de estructuras de proteínas jamás ejecutados, aprovechando toda la potencia del superordenador.

Este tipo de simulaciones son clave para acelerar el descubrimiento de fármacos, entender mejor enfermedades complejas o diseñar enzimas y proteínas sintéticas con aplicaciones industriales y medioambientales. La combinación de modelos de IA y simulaciones tradicionales permite explorar espacios de diseño enormes que serían inviables con métodos clásicos.

En paralelo, AMD ha anunciado una colaboración con el instituto japonés RIKEN para proyectos de investigación conjunta y desarrollo tecnológico en supercomputación e IA. El acuerdo contempla intercambio de investigadores, planificación de proyectos conjuntos y actividades relacionadas, reforzando el papel de la compañía como socio tecnológico en grandes ecosistemas científicos.


Un liderazgo que mezcla hardware, eficiencia y software abierto

El mensaje de fondo es que AMD quiere ocupar un papel estructural en la nueva etapa de la supercomputación: no solo vender chips, sino articular una combinación de hardware de muy alto rendimiento, eficiencia energética y software abierto que permita a gobiernos, laboratorios y empresas construir sus propias “fábricas de IA”.

Con superordenadores como Alice Recoque, Lux y Discovery, la compañía se asegura presencia en algunas de las infraestructuras científicas más estratégicas de Europa y Estados Unidos. Con su peso creciente en las listas Top500 y Green500, refuerza la idea de que la eficiencia energética será tan importante como la potencia. Y con Enterprise AI Suite, intenta trasladar ese mismo enfoque al mundo corporativo, donde la batalla por quién controlará las plataformas de IA de empresa está todavía abierta.

Detrás de cada cifra —un exaflop, cuatro de los diez sistemas más rápidos, 1 000 millones de dólares en acuerdos— hay un objetivo común: acortar el tiempo entre la idea y el experimento, entre el modelo y el descubrimiento. El resultado de esa carrera no solo se medirá en benchmarks, sino en nuevos materiales, medicamentos, avances energéticos y soluciones a problemas que hoy parecen inabordables.


Preguntas frecuentes sobre AMD, supercomputación e IA empresarial

¿Qué es un superordenador exascale como Alice Recoque y por qué es importante?
Un superordenador exascale es capaz de realizar al menos 1 exaflop, es decir, un trillón de operaciones de coma flotante por segundo. Sistemas como Alice Recoque permiten ejecutar simulaciones científicas extremadamente complejas —clima, dinámica de plasmas, materiales, proteínas— y entrenar modelos de IA masivos en tiempos razonables. Su importancia no es solo científica; también tiene implicaciones en competitividad industrial, soberanía tecnológica y seguridad nacional.

¿Qué significa que Lux y Discovery sean “fábricas de IA soberana”?
El concepto de “AI Factory” se refiere a infraestructuras diseñadas específicamente para entrenar, ajustar y desplegar modelos de IA a gran escala de forma continua. Que se hablen de “fábricas de IA soberana” implica que la capacidad de cómputo, los datos y los modelos clave se mantienen bajo control de una jurisdicción concreta (en este caso, Estados Unidos), reduciendo la dependencia de proveedores externos y reforzando la autonomía en ámbitos estratégicos como energía, defensa o salud.

¿En qué se diferencia AMD Enterprise AI Suite de otras plataformas de IA empresarial?
AMD Enterprise AI Suite se presenta como una plataforma completamente abierta y modular, basada en Kubernetes y optimizada para GPUs AMD Instinct. La diferencia principal frente a enfoques más cerrados es que se construye sobre componentes open source y APIs estándar, evitando el bloqueo de proveedor y permitiendo integrar modelos y herramientas de distintos orígenes. Además, incorpora de serie microservicios de inferencia (AIMs), un workbench para desarrollo y un gestor de recursos para gobernar clústeres de GPU a escala.

¿Cómo puede beneficiar esta infraestructura de AMD a empresas que no son centros de investigación?
Aunque los ejemplos más visibles son superordenadores nacionales, las mismas tecnologías —procesadores EPYC, GPUs Instinct y Enterprise AI Suite— se están llevando a la nube y a centros de datos corporativos. Esto permite a empresas de sectores como automoción, energía, finanzas, salud o retail acceder a capacidades de simulación y de IA que antes solo estaban al alcance de grandes laboratorios: desde optimizar cadenas de suministro hasta entrenar modelos de lenguaje internos o diseñar nuevos productos con gemelos digitales.

vía: amd

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×