AMD está aprovechando el tirón de la computación cloud para posicionar sus procesadores EPYC como una pieza clave en la nueva ola de cargas de trabajo: desde Inteligencia Artificial y HPC hasta bases de datos y cómputo general. En un repaso publicado por la compañía, AMD subraya que AWS, Microsoft Azure, Google Cloud y Oracle Cloud ampliaron en 2025 sus catálogos con instancias basadas en EPYC, con más crecimiento esperado en 2026.
La narrativa de AMD no va solo de “más instancias”: va de cómo los hiperescalares afinan familias específicas para necesidades concretas (ancho de banda de memoria, rendimiento por hilo, huella de memoria, NVMe local, confidencial computing…), mientras el mercado se pone más exigente con eficiencia, coste y seguridad.
AWS: familias nuevas y un mensaje claro sobre rendimiento x86
En el caso de AWS, AMD destaca la expansión de instancias con EPYC y llega a citar que Amazon atribuye a estas configuraciones “el mayor rendimiento x86” dentro de AWS.
Entre los ejemplos más llamativos:
- C8a (compute-optimized): AWS indica un salto de hasta un 33 % en ancho de banda de memoria frente a la generación anterior en esa línea.
- X8aedz: orientadas a EDA y también útiles para bases de datos relacionales que se benefician de alto rendimiento por hilo y gran memoria.
La lectura de fondo es sencilla: el CPU vuelve a ser protagonista para mover cargas históricamente “on-prem” al cloud sin que el rendimiento se convierta en el cuello de botella.
Google Cloud: EPYC como base para VMs generalistas, HPC e IA
Google Cloud también aparece como un actor que está ampliando familias con EPYC, con VMs enfocadas a distintos perfiles de uso.
- C4D: Google publicó que estas VMs pueden ofrecer hasta un 80 % más de throughput en servidor web frente a la generación anterior.
- N4D: documentación de lanzamiento/release notes recoge la disponibilidad y el encaje de esta familia en el catálogo de Compute Engine.
- H4D: posicionadas para HPC, con cifras de referencia de rendimiento y memoria en su página de solución.
Para AMD, el mensaje es que el mismo “bloque” (EPYC) puede escalar desde web y empresa hasta HPC, y servir como cimiento para portfolios amplios, algo clave cuando el objetivo es estandarizar infra.
Microsoft Azure: amplitud de catálogo… y foco en “confidential computing”
Azure aparece como el ejemplo de “catálogo grande, por casos de uso”: familias para general purpose, HPC, almacenamiento NVMe local y opciones confidenciales. AMD pone especial énfasis en Confidential Computing y en el papel de SEV (Secure Encrypted Virtualization) para proteger datos “en uso” dentro de entornos de ejecución confiables (TEE).
En paralelo, AMD señala familias y lanzamientos ligados a rendimiento (por ejemplo, líneas para HPC y opciones con almacenamiento NVMe local), y Azure ha publicado información técnica sobre familias como HBv5.
Oracle Cloud: EPYC como palanca para empresa y datos
En OCI, el encaje se cuenta en dos capas: instancias para cómputo (incluyendo bare metal y formas flexibles) y, sobre todo, el “mundo datos”. AMD remarca el uso de EPYC en servicios como Exadata y bases de datos gestionadas, como parte de una estrategia para modernizar plataformas críticas manteniendo consistencia y eficiencia.
Tabla rápida: qué aporta EPYC según cada nube (según anuncios y fichas públicas)
| Proveedor | Ejemplos mencionados | Enfoque principal | Dato/clave pública destacable |
|---|---|---|---|
| AWS | C8a, X8aedz | Cómputo, EDA, memoria | C8a: hasta +33 % de ancho de banda de memoria; X8aedz: foco EDA |
| Google Cloud | C4D, N4D, H4D | General purpose, coste/rendimiento, HPC | C4D: hasta +80 % throughput web server |
| Microsoft Azure | (familias varias), HBv5; confidential VMs | HPC, almacenamiento local, confidencial | Énfasis en Confidential Computing y SEV; HBv5 detallada por Azure |
| Oracle Cloud (OCI) | Exadata/DB Services, instancias EPYC | Empresa, datos, escalado | Exadata Database Service con EPYC destacado en documentación pública |
Lo que hay detrás: por qué esta “guerra de CPUs” vuelve a ser relevante
Durante años, el foco mediático se lo llevó la GPU por la explosión de la IA. Pero 2025 deja otra señal: la eficiencia por vatio, el rendimiento sostenido y la seguridad a nivel de hardware están reconfigurando decisiones de plataforma. AMD insiste en cuatro ideas: rendimiento, eficiencia, seguridad (confidencial computing) y escalabilidad como razones por las que los grandes proveedores amplían EPYC en sus catálogos.
En la práctica, esto se traduce en algo muy “de empresa”: más opciones para elegir instancias ajustadas a cargas reales (web, analítica, bases de datos, EDA, HPC), menos sobreaprovisionamiento y una conversación más seria sobre protección de datos en uso cuando el cloud se usa para procesos sensibles.
Preguntas frecuentes (FAQ)
¿Esto significa que AMD “gana” a Intel en la nube?
No necesariamente. Lo que sí indican los anuncios y el ritmo de familias nuevas es que AMD está consolidando una posición muy fuerte en catálogos x86, especialmente en segmentos donde rendimiento/eficiencia y coste total pesan mucho.
¿Qué es “confidential computing” y por qué ahora importa tanto?
Es un enfoque que busca proteger datos mientras se están usando (no solo en tránsito o en reposo) mediante aislamiento de hardware (TEE) y memoria cifrada. AMD lo vincula a SEV como parte de ese ecosistema.
¿Qué tipo de empresas se benefician más de estas nuevas instancias?
Las que mueven cargas intensivas (bases de datos, analítica, EDA, HPC) o las que necesitan mejorar eficiencia sin disparar costes. También aquellas con requisitos de seguridad altos que puedan aprovechar entornos confidenciales.
¿Por qué aparecen tantas “familias” distintas (C, N, H, X…)?
Porque el cloud ya no se optimiza solo para “CPU genérica”: se afina para cuellos de botella concretos (memoria, rendimiento por hilo, throughput, NVMe local, etc.). Esa especialización suele mejorar rendimiento y coste/uso real si se elige bien la familia.
vía: amd