SOCAMM2: el nuevo módulo LPDDR5X “compacto y eficiente” que JEDEC prepara para los servidores de IA

JEDEC ultima un estándar que puede cambiar la forma en que los centros de datos alimentan de memoria a la Inteligencia Artificial. Bajo el nombre JESD328: LPDDR5/5X Small Outline Compression Attached Memory Module (SOCAMM2), la organización avanza en un formato modular de bajo perfil pensado para servidores de IA y plataformas de cómputo acelerado. La promesa combina alto ancho de banda, menor consumo y mantenimiento más sencillo en chasis muy densos. Aunque el documento aún no está publicado, el mensaje es claro: llevar la eficiencia energética de LPDDR5X —tradicionalmente soldada a placa— a un módulo sustituible apto para rack.

Qué es SOCAMM2 (y qué resuelve)

SOCAMM2 es, en esencia, LPDDR5/5X empaquetada en un módulo comprimido, de bajo perfil, con un contorno mecánico optimizado para placas y chasis de gran densidad en centros de datos. La diferencia crucial respecto a la LPDDR “clásica” (que suele ir soldada) es que SOCAMM2 se instala como un módulo: es serviciable, permite sustitución en campo y añade un dispositivo SPD (Serial Presence Detect) para identificación, configuración y telemetría a nivel de módulo. Para las granjas de IA, eso significa reducir tiempos de parada y mejorar el ciclo de vida del hardware.

El enfoque ataca un cuello de botella recurrente: cómo sumar ancho de banda y capacidad cerca de CPUs de IA y aceleradores sin disparar el consumo y sin sacrificar densidad de montaje. SOCAMM2 propone una vía intermedia entre la DDR5 RDIMM tradicional, más flexible pero menos eficiente, y las pilas HBM, extremadamente rápidas pero costosas y complejas.

Velocidad, eficiencia y formato: las claves técnicas

  • LPDDR5X a plena tasa: el estándar está planteado para soportar hasta 9,6 Gb/s por pin (9,6 Gbps), siempre que la integridad de señal de la plataforma lo permita. En términos prácticos, eso habilita ancho de banda agregado elevado con menor energía por bit frente a alternativas DDR convencionales.
  • Bajo perfil y alta densidad: el outline compacto facilita rutas cortas y más módulos por placa en servidores densos.
  • SPD y telemetría: el módulo se identifica a sí mismo, expone parámetros y habilita flujos de cualificación orientados a fiabilidad en campo (objetivo crítico en el entorno enterprise).
  • Escalabilidad de capacidad: aunque JEDEC no ha fijado cifras finales en esta fase, el diseño declara una “ruta de escalado” para cubrir las grandes capacidades que exigen entrenamiento e inferencia.

El acento está en la eficiencia energética del subsistema de memoria. LPDDR5/5X opera a voltajes y modos de bajo consumo que, en agregados grandes, recortan vatios y refrigeración respecto a configuraciones equivalentes con RDIMM/LRDIMM. En un CPD moderno, cada vatio que no se gasta en memoria es menos calor que evacuar, menos aire que mover o menos agua que enfriar.

Por qué SOCAMM2 encaja en la era de la IA

El crecimiento de la IA generativa ha llevado a los fabricantes a replantear la jerarquía de memoria. Junto a la HBM que “abraza” a las GPU, los servidores de CPU para IA y las plataformas aceleradas necesitan memoria del sistema con alto throughput sin penalizar el PUE del centro de datos. Ahí encaja SOCAMM2:

  • Ancho de banda por vatio: LPDDR5X ofrece más GB/s por W que DDR5 registrada, útil para ETL de datos, serving de modelos medianos y pipelines donde la CPU o los DPU/SmartNIC también tiran de memoria intensivamente.
  • Densidad y mantenimiento: el bajo perfil simplifica layouts y deja espacio para más GPU, más redes o radiadores. El carácter serviciable reduce fricción frente a la LPDDR soldada.
  • Complemento a HBM: no busca sustituir a HBM en GPU, sino acompañarla en la memoria del sistema y, potencialmente, en aceleradores que prefieran LPDDR modular por coste/eficiencia.

Diferencias con CAMM2 “de portátil” y con el SOCAMM original

Conviene no mezclar siglas. CAMM2, ratificado por JEDEC para PC, ya exploraba ventajas de compresión y bajo perfil frente a SO-DIMM en portátiles y estaciones de trabajo. SOCAMM (Small Outline CAMM) emergió después como variante orientada a servidores/IA, con LPDDR5X como base para maximizar ancho de banda y eficiencia.

SOCAMM2 toma esa idea y la lleva a terreno JEDEC para data center, afinando forma, señalización, SPD y telemetría con foco en fiabilidad y servicio. La meta: pasar de diseños propietarios o de adopción limitada a un estándar abierto que multiplique la oferta de módulos y simplifique la integración para OEM y operadores.

Qué cambia para fabricantes y operadores

  • Para los OEM/ODMs: un formato común reduce la necesidad de placas y firmware ad hoc. La interoperabilidad entre proveedores de DRAM (Micron, Samsung, SK hynix, etc.) y de conectores/placas acelera la validación y reduce el time-to-market.
  • Para los integradores y cloud: telemetría de módulo, identificación clara y cualificación orientada a fiabilidad son puntos fuertes en operaciones a gran escala. Menos inventario “raro”, más sustitución guiada y control de flota.
  • Para el TCO: la ecuación combina más rendimiento sostenido por vatio y simplificación mecánica, con el coste —aún por ver— del ecosistema emergente. La ganancia potencial está en energía y refrigeración, dos partidas que crecen sin cesar en granjas de IA.

Lo que aún no se sabe (y por qué es normal)

JEDEC advierte que los estándares pueden cambiar durante su desarrollo. Hasta la publicación del JESD328, quedan por concretar detalles eléctricos, mapas de pines, límites térmicos, perfiles SPD definitivos y matrices de compatibilidad. Tampoco hay una tabla oficial de capacidades por módulo, aunque el propio diseño apunta a escalado hacia arriba para cubrir entrenamiento e inferencia.

Cómo leer las cifras y los matices

  • “Hasta 9,6 Gb/s por pin” significa que el techo de LPDDR5X puede aprovecharse si el diseño de placa y conector garantiza integridad de señal. En servidores densos, el routing y los retornos de referencia importan tanto como la DRAM.
  • SPD/telemetría no solo es “autodescubrimiento”: en operación, habilita lecturas de estado y registros de error a nivel de módulo, útiles para mantenimiento predictivo y SLA.
  • “Bajo perfil” no es estética: reduce alturas y sombreados de flujo de aire, y libera espacio para otras funciones críticas de un nodo de IA.

Contexto de mercado: por qué ahora

El avance llega cuando HBM domina el discurso, pero su disponibilidad y coste son limitantes. A la vez, DDR5 RDIMM ha subido en frecuencias y timings, pero penaliza el vatio y el calor en racks extremos. En medio, LPDDR5X modular puede ser la “memoria del sistema” eficiente que necesitan CPU de IA, DPU, FPGAs o aceleradores que no requieran HBM. Si el estándar cuaja, varios actores podrán ofrecer módulos SOCAMM2 y placas compatibles con ciclos de actualización más predecibles.

Qué vigilar en los próximos meses

  • Publicación del estándar: el salto de “casi listo” a documento JESD328 marcará la pauta para firmware, BIOS/UEFI, SPD y conectores.
  • Primeras plataformas: placas base o servidores que anuncien compatibilidad explícita con SOCAMM2.
  • Ofertas de los tres grandes (Micron, Samsung, SK hynix): densidades, binning y perfiles concretos para data center.
  • Ecosistema de validación: herramientas de burn-in, telemetría y cualificación que traduzcan el estándar a operación 24/7.

Conclusión: eficiencia y servicio, dos palabras que pesan en la IA

SOCAMM2 no busca un titular estridente; busca encajar en el rack donde hoy todo es energía, densidad y operaciones. Si JEDEC culmina el estándar y la industria lo abraza, los servidores de IA ganarán una opción de memoria modular, rápida y parca en vatios, con la telemetría y la serviciabilidad que demandan los equipos que viven al límite. No desplaza a HBM; la complementa. Y, frente a DDR5 registrada, ofrece una alternativa más eficiente cuando el problema ya no es solo “más GB/s”, sino más GB/s por cada vatio y por cada litro de aire.


Preguntas frecuentes

¿En qué se diferencia SOCAMM2 de CAMM2 (portátiles) y de SOCAMM “original”?
CAMM2 nació para PC como reemplazo de SO-DIMM, con módulos comprimidos y bajos. SOCAMM es la traslación a servidores/IA con LPDDR5/5X para maximizar eficiencia. SOCAMM2 es la evolución estandarizada en JEDEC para data center, con foco en telemetría SPD, fiabilidad en campo y alto ancho de banda.

¿SOCAMM2 compite con HBM en GPU?
No directamente. HBM seguirá donde se necesiten anchos de banda extremos pegados al die. SOCAMM2 apunta a la memoria del sistema (CPU de IA, DPU y plataformas aceleradas) y a escenarios donde GB/s por vatio y serviciabilidad pesan más que el pico absoluto de ancho de banda.

¿Qué velocidades y consumos se esperan?
La hoja técnica de JEDEC prevé hasta 9,6 Gb/s por pin para LPDDR5X, condicionado por integridad de señal. El ahorro energético deriva de la naturaleza low-power de LPDDR5/5X frente a DDR5 registrada, lo que reduce energía disipada y carga térmica en racks densos.

¿Cuándo estará disponible y cómo se integrará?
JEDEC indica que el estándar está casi finalizado. Tras la publicación, llegarán placas y módulos cualificados. La integración pasará por firmware/BIOS con soporte de SPD/telemetría, conectores específicos y validación de integridad de señal a 9,6 Gb/s por pin.

vía: jedec.org

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×