SK hynix pone en producción su SOCAMM2 de 192 GB para NVIDIA Vera Rubin

SK hynix ha anunciado el inicio de la producción en masa de su módulo SOCAMM2 de 192 GB, una memoria LPDDR5X de bajo consumo fabricada con su proceso 1cnm —la sexta generación de la clase de 10 nanómetros— y orientada a la próxima plataforma NVIDIA Vera Rubin. La compañía surcoreana sostiene que este movimiento refuerza su posición en una de las batallas más importantes de la infraestructura de Inteligencia Artificial: la de la memoria eficiente para servidores de nueva generación.

La noticia importa porque el cuello de botella en IA ya no está solo en las GPU. También está en cómo alimentar esos sistemas con suficiente capacidad, ancho de banda y eficiencia energética sin disparar el consumo eléctrico del rack. En ese contexto, SOCAMM2 intenta abrir una vía distinta a la del RDIMM tradicional, llevando la memoria de bajo consumo LPDDR —habitual en móviles— al entorno del centro de datos y de los servidores para IA.

Qué es SOCAMM2 y por qué empieza a ganar peso

SK hynix define SOCAMM2 como un módulo optimizado para servidores de IA basado en LPDDR, con un formato delgado, alta escalabilidad y un conector por compresión pensado para mejorar la integridad de señal y facilitar la sustitución del módulo. La compañía asegura que su nueva solución de 192 GB ofrece más del doble de ancho de banda y una mejora de eficiencia energética superior al 75 % frente a módulos RDIMM convencionales, siempre según sus propias métricas internas.

Ese planteamiento encaja con la arquitectura de la plataforma Vera Rubin. NVIDIA explica que su CPU Vera está diseñada para cargas intensivas en datos y memoria, con 88 núcleos propios, compatibilidad Arm y hasta 1,2 TB/s de ancho de banda LPDDR5X. Traducido al lenguaje del mercado, eso significa que Rubin no solo necesita aceleradores potentes, sino también una jerarquía de memoria mucho más afinada para evitar que el sistema pierda rendimiento por culpa del acceso a datos.

La gran baza de SOCAMM2 es precisamente esa: combinar capacidad elevada y menor consumo dentro de una arquitectura modular. A diferencia de soluciones totalmente soldadas o más cerradas, el formato mantiene un grado de servicio y reemplazo que interesa en centros de datos, donde el mantenimiento y la escalabilidad siguen siendo factores decisivos. Por eso no se trata solo de una RAM “más rápida”, sino de una pieza pensada para resolver compromisos muy concretos entre rendimiento, potencia y densidad.

Una carrera que ya no corre solo SK hynix

El anuncio también deja claro que la carrera por SOCAMM2 se está acelerando. Micron ya se había movido antes en esta dirección y se presenta como el primer proveedor en llevar al mercado un formato modular de clase centro de datos para LPDDR5X. En marzo anunció su SOCAMM2 de 256 GB, con una cartera que va de 48 GB a 256 GB, y lo vinculó igualmente a los sistemas NVIDIA Vera Rubin NVL72 y a plataformas CPU Vera independientes. Según Micron, esa configuración permite llegar a 2 TB de memoria por CPU y hasta 1,2 TB/s de ancho de banda por procesador.

Eso convierte el movimiento de SK hynix en algo más que una simple mejora incremental. La compañía entra de lleno en una categoría donde la memoria deja de ser un componente relativamente intercambiable y pasa a convertirse en parte central de la arquitectura del sistema. En otras palabras, no compite solo por vender chips DRAM, sino por asegurarse un papel clave en el ecosistema de referencia de NVIDIA para la siguiente oleada de infraestructura de IA.

Además, el uso de LPDDR en servidores de IA introduce una lógica distinta a la de la memoria tradicional para centros de datos. Micron lleva meses defendiendo que estos módulos permiten reducir consumo y huella física frente a RDIMM, mientras SK hynix ha optado ahora por subrayar el salto en ancho de banda y eficiencia energética de su solución de 192 GB. Aunque las cifras exactas varían según fabricante y condiciones de prueba, el mensaje de fondo coincide: el mercado empieza a asumir que la memoria de bajo consumo ya no es solo cosa de portátiles o smartphones.

El verdadero contexto: más IA, más densidad, menos margen energético

El anuncio de SK hynix llega, además, en un momento en el que cada vatio cuenta. El crecimiento de las cargas de entrenamiento e inferencia de modelos grandes ha elevado la presión sobre la memoria del sistema, no solo sobre la HBM que acompaña a las GPU. La CPU, el subsistema de memoria principal y la capacidad de mover datos dentro del nodo se han convertido en piezas críticas para sostener el rendimiento de modelos con contextos cada vez más amplios y con necesidades de alimentación de datos mucho mayores.

Por eso SK hynix insiste en que su SOCAMM2 de 192 GB está pensado para aliviar cuellos de botella en entrenamiento e inferencia de grandes modelos de lenguaje. Es una afirmación comercial, sí, pero apunta a un problema real del sector: el desequilibrio entre aceleración de cómputo y capacidad del sistema para sostener esa aceleración de forma eficiente. A medida que los racks de IA ganan potencia, la memoria deja de ser un accesorio y pasa a ser una limitación estructural si no evoluciona al mismo ritmo.

La producción en masa anunciada por SK hynix sugiere, en definitiva, que SOCAMM2 está dejando atrás la fase de promesa tecnológica para entrar en la de despliegue real. Queda por ver qué volumen tendrá esa adopción, cómo responderán el resto de fabricantes y hasta qué punto NVIDIA convertirá este tipo de memoria en uno de los pilares de sus futuras plataformas. Pero una cosa parece ya clara: la siguiente gran batalla en IA no se librará solo en la GPU ni en la HBM. También se jugará en esa memoria de sistema que, hasta hace poco, parecía una pieza secundaria y ahora empieza a convertirse en protagonista.

Preguntas frecuentes

¿Qué es exactamente SOCAMM2?
SOCAMM2 es un módulo de memoria basado en LPDDR diseñado para servidores de IA. Busca ofrecer alta capacidad, menor consumo y un formato modular con conector por compresión para mejorar señal, mantenimiento y escalabilidad.

¿Para qué plataforma está diseñado el nuevo módulo de SK hynix?
SK hynix ha indicado que su SOCAMM2 de 192 GB está diseñado para la plataforma NVIDIA Vera Rubin. NVIDIA, por su parte, sitúa a Vera como una arquitectura con hasta 1,2 TB/s de ancho de banda LPDDR5X en la CPU Vera.

¿En qué mejora frente a la memoria RDIMM tradicional?
Según SK hynix, su módulo ofrece más del doble de ancho de banda y una mejora de eficiencia energética superior al 75 % frente a RDIMM convencional. Son cifras aportadas por la propia compañía.

¿Es SK hynix la única empresa que está apostando por SOCAMM2?
No. Micron también ha anunciado módulos SOCAMM2 para el ecosistema Vera Rubin y ya ha presentado versiones de 192 GB y 256 GB, lo que confirma que esta categoría se está consolidando como una nueva línea estratégica en memoria para IA.

vía: news.skhynix

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×