AMD ha utilizado el escaparate de CES 2026 en Las Vegas para desplegar una narrativa ambiciosa: la Inteligencia Artificial “en todas partes y para todos” no será posible sin una nueva generación de infraestructura abierta, modular y eficiente, capaz de escalar desde el centro de datos hasta el PC y el borde industrial. En su keynote de apertura, la presidenta y CEO de la compañía, Lisa Su, dibujó un salto de escala que va más allá de los anuncios de producto: el sector estaría entrando en la era de la computación a escala yotta, impulsada por un crecimiento simultáneo del entrenamiento y la inferencia.
La pieza central de ese mensaje fue un primer vistazo a “Helios”, la plataforma de rack a gran escala con la que AMD pretende ofrecer un “plano” de referencia para infraestructuras gigantes de IA. La empresa sitúa el punto de partida en torno a los 100 zettaflops de capacidad global actual y proyecta un salto a más de 10 yottaflops en los próximos cinco años, una evolución que obligaría a repensar no solo la potencia bruta, sino el diseño del sistema, la red, la eficiencia energética y el software que lo gobierna.
Helios: un “plano” para el rack del futuro
AMD define Helios como una arquitectura de rack abierta y modular, diseñada para evolucionar con futuras generaciones sin exigir “reinventar” el centro de datos cada ciclo. En su formulación de CES, Helios se apoya en tres piezas: aceleradores AMD Instinct MI455X, CPU AMD EPYC “Venice” y tarjetas de red AMD Pensando “Vulcano” para interconectar miles de aceleradores en un sistema unificado. Todo ello, remarca la compañía, cohesionado por el ecosistema de software AMD ROCm, con el que busca reforzar un enfoque de plataforma abierta frente a propuestas más cerradas del mercado.
En cifras, AMD asegura que Helios podrá entregar hasta 3 exaFLOPS de IA en un solo rack, con el foco puesto en entrenamiento de modelos de billones de parámetros y en maximizar el ancho de banda y la eficiencia por vatio. Es un dato que, por sí solo, apunta a la principal obsesión actual del sector: ya no basta con sumar GPUs, hay que alimentarlas y coordinarlas sin que la red, la memoria o la gestión operativa se conviertan en un cuello de botella.
Instinct MI440X: el guiño a la empresa “sin rediseñar el CPD”
Además de Helios, AMD amplió su familia de aceleradores con la AMD Instinct MI440X, un modelo orientado a despliegues empresariales on-premise. La idea es pragmática: muchas compañías quieren entrenar, ajustar y ejecutar modelos dentro de sus instalaciones —por control, costes, cumplimiento o soberanía—, pero no siempre pueden (o quieren) convertir su CPD en una fábrica de IA desde cero.
La MI440X se presenta como un producto pensado para integrarse en infraestructura existente en un formato compacto de ocho GPUs, dirigido a cargas de entrenamiento, fine-tuning e inferencia. En paralelo, AMD volvió a señalar que su hoja de ruta para centros de datos y supercomputación se apoya en la familia Instinct MI400, con ejemplos de despliegue en sistemas anunciados para laboratorios y proyectos nacionales.
MI500 (2027): la promesa de “hasta 1.000 veces” más rendimiento en IA
El anuncio con más aroma a futuro fue la vista previa de la serie AMD Instinct MI500, planificada para 2027. AMD afirma que esta generación va camino de ofrecer hasta 1.000 veces más rendimiento de IA frente a la MI300X presentada en 2023, apoyándose en arquitectura AMD CDNA 6, un proceso avanzado de 2 nm y memoria HBM4E. Como suele ocurrir en los anuncios de ciclo largo, la compañía enmarca estas cifras como proyecciones y objetivos de ingeniería, no como resultados finales ya medidos en producto comercial.
En la práctica, el mensaje es claro: AMD quiere que su historia de IA no se lea solo como “otra alternativa” en GPUs, sino como una carrera sostenida de varias generaciones en la que la eficiencia y el software —especialmente ROCm— serán tan decisivos como el silicio.
La IA baja al PC: Ryzen AI 400, 60 TOPS y una plataforma para desarrolladores
La keynote también bajó al terreno del usuario final, donde AMD ve un mercado masivo: el del PC con capacidades de IA. La compañía presentó las plataformas Ryzen AI 400 Series y Ryzen AI PRO 400 Series, con una NPU de 60 TOPS y soporte completo de ROCm, con el argumento de facilitar un escalado “de la nube al cliente” para desarrolladores y empresas. AMD asegura que los primeros sistemas llegarán en enero de 2026, con una disponibilidad más amplia en el primer trimestre de 2026 a través de OEMs.
El punto más llamativo para inferencia local fue la mención a Ryzen AI Max+ 392 y Ryzen AI Max+ 388, plataformas con 128 GB de memoria unificada capaces de manejar modelos de hasta 128.000 millones de parámetros. Este tipo de cifras, más allá del marketing, reflejan una tendencia real: parte de la IA se está “descentralizando” hacia el dispositivo, ya sea por privacidad, latencia, coste o continuidad operativa.
Para completar el triángulo, AMD adelantó la Ryzen AI Halo Developer Platform, un equipo de sobremesa compacto (SFF) orientado a desarrolladores, que debería estar disponible en T2 2026. La tesis es que, si la IA va a estar “en todas partes”, los creadores necesitan kits accesibles para probar, optimizar y desplegar sin depender siempre de grandes clústeres remotos.
IA en el mundo físico: edge, automoción y robótica
AMD también volvió a subrayar su apuesta por el borde con el anuncio de los Ryzen AI Embedded, procesadores x86 para sistemas embebidos dirigidos a casos como cockpits digitales en automoción, salud inteligente y IA física en sistemas autónomos, incluida robótica humanoide. El hilo conductor es el mismo: mover inferencia y decisiones cerca del entorno real, donde la latencia, el consumo y la fiabilidad importan tanto como el rendimiento máximo.
El componente político y social: Genesis Mission y 150 millones para educación
La keynote incorporó un momento de tono institucional. Lisa Su estuvo acompañada por Michael Kratsios, director de la Oficina de Política Científica y Tecnológica de la Casa Blanca (OSTP), para hablar de la Genesis Mission, una iniciativa público-privada que busca reforzar el liderazgo de Estados Unidos en IA y acelerar descubrimientos científicos. En ese marco, se citó la creación de dos supercomputadores en Oak Ridge National Laboratory: Lux y Discovery.
En paralelo, AMD anunció un compromiso de 150 millones de dólares para llevar la IA a más aulas y comunidades, y cerró con un reconocimiento a más de 15.000 estudiantes participantes en el AMD AI Robotics Hackathon junto a Hack Club. Para una industria a menudo criticada por el impacto energético o por la concentración de poder tecnológico, el gesto busca anclar el discurso de “IA para todos” en iniciativas educativas tangibles.
Un ecosistema de socios para sostener el relato
AMD reforzó la puesta en escena con la presencia de socios que, según la compañía, ya están utilizando su tecnología para impulsar avances en IA: OpenAI, Luma AI, Liquid AI, World Labs, Blue Origin, Generative Bionics, AstraZeneca, Absci e Illumina, entre otros. En el plano competitivo, la fotografía del CES deja otro dato: AMD insiste en que su enfoque de plataforma abierta y co-innovación es la vía para ganar relevancia frente a un mercado donde NVIDIA sigue marcando el ritmo y donde el apetito por computación sigue disparado.
Preguntas frecuentes
¿Qué es la plataforma Helios de AMD y para qué sirve en centros de datos de IA?
Helios es una arquitectura de rack a gran escala que AMD presenta como “plano” para infraestructuras de IA a escala yotta, combinando Instinct MI455X, EPYC “Venice”, red Pensando “Vulcano” y el software ROCm para conectar miles de aceleradores.
¿En qué se diferencia la AMD Instinct MI440X de las soluciones de IA para hyperscalers?
La MI440X está orientada a despliegues empresariales on-premise y busca encajar en infraestructuras más tradicionales, con un formato de ocho GPUs pensado para entrenamiento, fine-tuning e inferencia sin rediseñar por completo el CPD.
¿Cuándo llegará la serie AMD Instinct MI500 y qué promete frente a MI300X?
AMD la sitúa en 2027 y proyecta hasta 1.000 veces más rendimiento de IA que MI300X (2023), apoyándose en CDNA 6, 2 nm y memoria HBM4E; son objetivos anunciados con antelación y sujetos a cambios hasta el lanzamiento.
¿Qué significa que un PC tenga una NPU de 60 TOPS y qué usos reales habilita?
Los TOPS miden operaciones por segundo en tareas de IA. Una NPU de 60 TOPS apunta a acelerar inferencia local (por ejemplo, transcripción, mejoras de imagen/vídeo, asistentes y flujos creativos) reduciendo latencia y dependencia de la nube, aunque el rendimiento final depende del modelo y del software.
vía: amd