SK hynix se acerca a Nvidia, Amazon y Microsoft con una nueva oficina en el área de Seattle para afianzar su liderazgo en memoria HBM

La batalla por la infraestructura de Inteligencia Artificial ya no se decide solo en los grandes centros de datos ni en la potencia bruta de las GPU. En la trastienda de ese boom hay un componente que se ha convertido en oro industrial: la memoria HBM (High Bandwidth Memory), esencial para alimentar a los aceleradores que entrenan y ejecutan modelos cada vez más exigentes. Y ahí, el gigante surcoreano SK hynix está moviendo ficha en uno de los lugares donde hoy se diseñan —literalmente— los próximos saltos de rendimiento.

Según fuentes del sector citadas por DigiTimes, la compañía ha alquilado una oficina de aproximadamente 5.500 pies cuadrados en City Center Bellevue, al este de Seattle. Sobre el papel es un espacio modesto, pero el mensaje es evidente: SK hynix quiere estar a pocos minutos de los equipos que marcan el ritmo del mercado, desde Nvidia hasta los grandes proveedores hiperescalares que diseñan su propio silicio, como Amazon y Microsoft.

No es “una oficina más”: es estar donde se validan los diseños

En el negocio de la memoria, una apertura de oficina suele leerse como un movimiento comercial o de soporte regional. En el caso de Bellevue, el subtexto es distinto. La memoria HBM no es un componente “plug and play” que se compra, se instala y ya. En los aceleradores de última generación, la HBM se integra en arquitecturas complejas y en empaquetados avanzados, y su rendimiento real depende de iteraciones continuas: validación eléctrica, integridad de señal, consumo, gestión térmica, tolerancias de packaging y, sobre todo, ajustes finos con el cliente.

En otras palabras: estar cerca acelera el ciclo de corrección y mejora. Y, en plena carrera por la IA, ganar semanas puede significar ganar contratos multimillonarios.

La elección de Seattle y sus alrededores no es casual. El área se ha consolidado como uno de los polos más densos del ecosistema de IA fuera de Silicon Valley, con presencia de ingeniería de Nvidia, además de los equipos de AWS y Microsoft vinculados a plataformas cloud y silicio propio. Para un proveedor de HBM, esa proximidad equivale a sentarse en la misma mesa donde se deciden las futuras generaciones de aceleradores.

El contexto: HBM como palanca de liderazgo… y de ingresos

SK hynix lleva tiempo intentando dejar atrás la imagen de proveedor cíclico de DRAM “commodity” y posicionarse como actor estructural de la era de la IA. Su ventaja en HBM ha sido una pieza clave para ello. De hecho, informes recientes apuntan a que la tracción de HBM ha contribuido a que la compañía haya superado a Samsung en métricas de ingresos del negocio de memoria en 2025, un hito simbólico en un sector históricamente dominado por su rival doméstico.

La lógica financiera es directa: cuando la demanda se concentra en productos de alto valor añadido (HBM3E, HBM4 y generaciones posteriores), el margen, la visibilidad de ingresos y la capacidad de negociar contratos a largo plazo cambian por completo. Para SK hynix, estar incrustada en el “cinturón” Seattle–Bellevue–Redmond es una forma de proteger esa posición.

Los hiperescalares aprietan el acelerador

La presión competitiva no viene solo de Nvidia. Los hiperescalares llevan años diseñando chips propios para reducir dependencia, optimizar costes y ajustar el rendimiento a sus cargas de trabajo. Y en esa estrategia, la memoria HBM se ha convertido en un ingrediente imprescindible.

Un ejemplo ilustrativo es Trainium3, el acelerador de AWS presentado recientemente, que integra 144 GB de HBM3E y eleva el listón de memoria y ancho de banda en la carrera por el entrenamiento e inferencia a gran escala. Ese salto no se sostiene sin una cadena de suministro capaz de responder con volumen, rendimiento y fiabilidad. De ahí que, para SK hynix, el movimiento de Bellevue sea también una apuesta por estar cerca del cliente que más crece y más compra.

La otra pata: fabricación y packaging en EE. UU.

La oficina en Washington encaja con una estrategia más amplia: localizar capacidades críticas en Estados Unidos. En 2024, SK hynix anunció una inversión estimada de 3.870 millones de dólares para levantar en West Lafayette (Indiana) una instalación de packaging avanzado y I+D orientada a productos de IA. El proyecto se plantea como una pieza relevante para reforzar la cadena de suministro estadounidense y, según previsiones divulgadas entonces, apunta a iniciar producción en 2028.

Además, el impulso tiene respaldo institucional: el Departamento de Comercio de EE. UU. otorgó financiación dentro del marco de la CHIPS and Science Act para apoyar esta iniciativa, en un momento en el que Washington busca reducir dependencias externas en tecnologías consideradas estratégicas.

Para el sector, el mensaje es que el cuello de botella de la IA ya no está solo en la fabricación de obleas: el packaging avanzado y la integración se han convertido en un factor decisivo. Y quien controle esa parte del proceso controla tiempos, entregas y capacidad de respuesta.

HBM4: la próxima frontera ya está en juego

El movimiento hacia Seattle también se entiende mirando al próximo ciclo tecnológico. SK hynix ha comunicado avances en HBM4 y su preparación para producción, mientras el mercado anticipa una nueva oleada de demanda ligada a la siguiente generación de aceleradores. Reuters informó de que la compañía está preparando el sistema de producción tras completar certificaciones internas y que ya ha enviado muestras a clientes, con el objetivo de iniciar producción en masa en la segunda mitad de 2025.

HBM4 eleva la complejidad: más apilado, presupuestos térmicos más ajustados y una integración todavía más delicada. En ese contexto, tener equipos a un paso de los ingenieros de Nvidia y de los hiperescalares puede marcar la diferencia entre “estar en la lista” o quedarse fuera de los diseños ganadores.

Una señal para Samsung y Micron… y para los inversores

Con esta expansión, SK hynix no solo se acerca a clientes: también lanza un aviso a competidores. Samsung mantiene una enorme capacidad industrial y refuerza inversiones en EE. UU., mientras que Micron busca oportunidades en memoria avanzada y mercados de alto valor. Pero, en HBM, el liderazgo se mide por una combinación muy concreta: rendimiento, yields, capacidad de entrega y velocidad de co-diseño.

La oficina de Bellevue, aunque pequeña, funciona como símbolo de una estrategia: pasar de proveedor a socio tecnológico dentro del ciclo de diseño. Y eso, en un mercado de IA con oferta ajustada y contratos plurianuales, tiene implicaciones directas para cuota, márgenes y estabilidad de ingresos.


Preguntas frecuentes

¿Por qué la memoria HBM es tan importante para la Inteligencia Artificial en centros de datos?

Porque permite un ancho de banda muy alto y una integración cercana al procesador o acelerador, algo clave para mover grandes volúmenes de datos a la velocidad que requieren el entrenamiento y la inferencia de modelos modernos.

¿Qué aporta abrir una oficina en Bellevue a un proveedor como SK hynix?

Aporta proximidad operativa con clientes estratégicos para acelerar ciclos de validación y co-diseño (térmica, señal, packaging), reduciendo fricción y tiempos en proyectos que suelen tener plazos extremadamente ajustados.

¿Qué relación tiene el packaging avanzado con la escasez de hardware de IA?

El packaging avanzado es una parte crítica de la cadena de suministro: integra componentes complejos (como HBM y GPU) y puede convertirse en cuello de botella. Aumentar capacidad de packaging ayuda a escalar entregas y a reducir riesgos logísticos.

¿Qué implica el salto a HBM4 para el mercado de aceleradores de IA?

HBM4 promete mejoras de rendimiento y eficiencia, pero también exige más coordinación entre diseñador del chip y proveedor de memoria. Quien entre antes en el ciclo de co-diseño suele asegurar acuerdos de suministro de varios años.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×