AMD lleva la Inteligencia Artificial al “borde” con Ryzen AI Embedded: un único chip para coches, fábricas y robótica

AMD ha presentado una nueva familia de procesadores x86 embebidos diseñada para ejecutar cargas de Inteligencia Artificial directamente en el edge, allí donde se producen los datos y donde la latencia y el consumo energético mandan: el coche, la línea de producción o un sistema autónomo que debe reaccionar en tiempo real. La compañía, con sede en Santa Clara (California), ha anunciado los AMD Ryzen AI Embedded, un porfolio que arranca con las series P100 y X100 y que combina en un solo silicio tres piezas que, hasta hace poco, solían exigirse por separado: CPU “Zen 5”, GPU RDNA 3.5 y NPU XDNA 2.

La promesa, según el propio planteamiento de AMD, es clara: más rendimiento y más capacidad de IA “en el dispositivo” sin aumentar la complejidad del sistema. En automoción e industria, ese matiz no es menor. En un cockpit digital moderno —con instrumentación, infoentretenimiento, asistentes por voz y múltiples pantallas— y en una instalación industrial donde conviven visión artificial, control determinista y gráficos en tiempo real, cada componente extra añade coste, integración y puntos potenciales de fallo.

Salil Raje, vicepresidente sénior y director general de AMD Embedded, lo resumía en una idea: a medida que las industrias empujan hacia experiencias más inmersivas y más inteligencia local, necesitan potencia sin una arquitectura más enrevesada. Los Ryzen AI Embedded buscan responder a esa tensión integrando cómputo general, gráficos y aceleración de IA en un formato compacto pensado para despliegues exigentes.

Dos series, un mismo enfoque: IA local con control determinista

El anuncio se estructura en dos familias:

  • Ryzen AI Embedded P100 Series, orientada a experiencias en vehículo y automatización industrial.
  • Ryzen AI Embedded X100 Series, con mayor número de núcleos y más capacidad para escenarios de “IA física” y sistemas autónomos más demandantes.

En la práctica, AMD está señalando un cambio de foco: la IA ya no es solo algo que ocurre en un centro de datos o en la nube, sino también en sistemas que deben ver, decidir y actuar con baja latencia, incluso sin conectividad o con conectividad intermitente. En ese terreno, una NPU dedicada —como XDNA 2— se vuelve clave para sostener inferencias con un consumo ajustado.

P100: cockpits digitales, HMI y pantallas 4K a 120 fps

El primer bloque en llegar es el de la P100 Series con 4 a 6 núcleos, optimizada para cockpits digitales de nueva generación e interfaces HMI (human-machine interface). AMD destaca un incremento de rendimiento frente a la generación anterior: la plataforma puede ofrecer hasta 2,2× de mejora en rendimiento de uno y varios hilos respecto a la generación previa, con el objetivo de mantener un control determinista (un requisito típico cuando hay componentes críticos conviviendo con aplicaciones ricas en gráficos).

En especificaciones físicas y de operación, el mensaje está orientado a integradores que viven con restricciones muy reales:

  • Encapsulado BGA de 25 × 40 mm, pensado para sistemas con poco margen de espacio.
  • Rango de funcionamiento de 15–54 W, relevante para diseños con límites térmicos.
  • Soporte para entornos de –40 °C a +105 °C, típico de aplicaciones industriales y automoción.
  • Orientación a ciclos de vida largos, con referencias a horizontes de hasta 10 años.

Donde el anuncio se vuelve especialmente tangible es en la parte gráfica. La GPU RDNA 3.5 integrada, según estimaciones de AMD, ofrece un 35 % más de rendimiento en renderizado frente al Ryzen Embedded V2A46 en pruebas internas, y está preparada para alimentar hasta cuatro pantallas 4K (o dos 8K) a 120 fotogramas por segundo de forma simultánea. Para un vehículo con múltiples displays —cuadro de instrumentos, pantalla central, pantalla del copiloto y paneles auxiliares— esa capacidad tiene una lectura inmediata: más margen para interfaces fluidas y gráficos complejos sin “cargar” el resto del sistema.

A esto se suma el motor de códec de vídeo de AMD, orientado a reproducción y streaming con baja latencia sin penalizar la CPU, un punto que encaja con el tipo de experiencias que hoy se exigen en infoentretenimiento y señalización avanzada.

XDNA 2: hasta 50 TOPS para inferencia de baja latencia

El tercer pilar del chip, y el que da nombre a la gama, es la NPU. AMD afirma que la XDNA 2 puede llegar a 50 TOPS (trillions of operations per second) y alcanzar hasta 3× más rendimiento de inferencia en comparación con la anterior familia Ryzen Embedded 8000 en términos de TOPS máximos.

Más allá del número, el enfoque que describe AMD está ligado a casos de uso concretos: modelos compatibles como vision transformers, LLM compactos y CNN, con el objetivo de combinar señales como voz, gestos y “pistas” del entorno. En un coche, eso se traduce en asistentes más responsivos y en interacción multimodal dentro del habitáculo. En una fábrica, en analítica visual en tiempo real, detección de anomalías o inspección automática sin tener que enviar cada fotograma a la nube. Y en “IA física”, en el tipo de percepción y respuesta que necesitan robots y sistemas autónomos.

Virtualización abierta con Xen para separar mundos sin romper el sistema

Una de las partes más llamativas del anuncio no es el silicio, sino el software. AMD asegura que los Ryzen AI Embedded se apoyan en un entorno de desarrollo consistente con una pila unificada para CPU, GPU y NPU: bibliotecas optimizadas en CPU, APIs abiertas para GPU y un runtime nativo para XDNA habilitado a través de Ryzen AI Software.

En el plano de arquitectura de sistemas, la compañía subraya que la base es un marco de virtualización open source sustentado en el hipervisor Xen, pensado para aislar de forma segura múltiples dominios de sistema operativo. El ejemplo que plantea AMD es significativo por lo que implica en automoción e industria:

  • Yocto o Ubuntu para la parte HMI.
  • FreeRTOS para control en tiempo real.
  • Android o Windows para aplicaciones más ricas.

Todo ello, según AMD, ejecutándose en paralelo y de forma aislada, lo que busca simplificar diseños donde conviven requisitos de seguridad y tiempo real con experiencias multimedia avanzadas. Además, AMD menciona una arquitectura “capaz” de ASIL-B y referencias a AEC-Q100, dos etiquetas habituales cuando el objetivo es entrar en la cadena de suministro de automoción con garantías de seguridad funcional y fiabilidad.

Calendario: muestreo ya en marcha y producción prevista para el segundo trimestre

En disponibilidad, AMD indica que los P100 de 4 a 6 núcleos ya están en fase de muestreo con clientes de acceso temprano, con herramientas y documentación disponibles y envíos de producción previstos para el segundo trimestre. También anticipa que habrá P100 de 8 a 12 núcleos orientados a automatización industrial, cuyo muestreo comenzaría en el primer trimestre, y que la serie X100, con hasta 16 núcleos, empezaría a muestrearse en la primera mitad del año.

En conjunto, la lectura del anuncio es que AMD quiere ocupar un espacio cada vez más disputado: el de procesadores embebidos que no solo controlan y visualizan, sino que también “razonan” localmente. En el edge, donde milisegundos y vatios marcan la diferencia, integrar CPU, GPU y NPU en un único chip puede ser tan importante como el rendimiento bruto.


Preguntas frecuentes

¿Para qué sirve un procesador Ryzen AI Embedded en un cockpit digital de coche?
Está orientado a ejecutar, en un único chip, gráficos en tiempo real para múltiples pantallas (instrumentación e infoentretenimiento) y funciones de IA local como interacción por voz o análisis contextual, con un diseño pensado para rangos térmicos y ciclos de vida propios de automoción.

¿Qué significa que la NPU XDNA 2 llegue a 50 TOPS en un sistema embebido?
Implica capacidad de aceleración dedicada para inferencia de modelos de IA con baja latencia y consumo ajustado, útil para tareas como visión artificial, asistentes locales y análisis en tiempo real sin depender de enviar datos a la nube.

¿Qué ventajas aporta la virtualización con Xen en automoción e industria?
Permite aislar varios sistemas operativos y dominios (por ejemplo, HMI en Linux, control en tiempo real con FreeRTOS y apps en Android/Windows) para que convivan de forma más segura, reduciendo el riesgo de que un componente afecte a otro.

¿Cuándo se esperan los primeros envíos y qué diferencia hay entre P100 y X100?
Los P100 de 4 a 6 núcleos ya están en muestreo y AMD prevé envíos de producción en el segundo trimestre; los X100, con más núcleos y enfoque en “IA física” y sistemas autónomos más exigentes, iniciarían muestreo en la primera mitad del año.

vía: amd

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×