La nueva memoria modular basada en LPDDR permitirá mayor eficiencia energética, ancho de banda superior y facilidad de actualización en PCs y servidores de IA
NVIDIA continúa impulsando la evolución de la inteligencia artificial con una apuesta firme por la memoria modular de bajo consumo. Según ha revelado el medio surcoreano ETNews, la compañía prevé producir entre 600.000 y 800.000 unidades de sus nuevos módulos SOCAMM (Smart On-Board Compression Attached Memory Modules) a lo largo de este año, para integrarlos en su nueva generación de plataformas orientadas a la IA.
Una revolución en la memoria para IA
Presentada durante el evento GTC de NVIDIA, la tecnología SOCAMM representa un nuevo estándar de memoria LPDDR de clase data center, desarrollada inicialmente por Micron, y compatible con dispositivos de IA que requieran eficiencia energética y alto rendimiento. A diferencia de las soluciones HBM o LPDDR5X tradicionales —que suelen estar soldadas a la placa base—, los módulos SOCAMM son intercambiables, lo que permite actualizaciones futuras mediante un sencillo sistema de tres tornillos.
Uno de los primeros productos en adoptar esta tecnología es la plataforma GB300 Blackwell, que ya mostraba la intención de NVIDIA de adoptar un nuevo factor de forma para sus productos de IA.
Ventajas clave frente a RDIMM y LPDDR5X
Los módulos SOCAMM combinan alta eficiencia energética, formato compacto y elevado ancho de banda, alcanzando entre 150 y 250 GB/s, superando ampliamente a los tradicionales RDIMM, LPDDR5X e incluso LPCAMM. Gracias a su modularidad, SOCAMM se perfila como una opción ideal para AI PCs y servidores de IA de bajo consumo, permitiendo ampliar memoria sin sustituir completamente la placa o el sistema.
Aunque la producción estimada de hasta 800.000 unidades todavía está por debajo del volumen de memorias HBM que NVIDIA ha recibido este año por parte de sus socios, se espera una escala masiva en 2026 con la llegada de la segunda generación: SOCAMM 2.
Micron al frente, con Samsung y SK Hynix al acecho
Por el momento, Micron es el principal fabricante de los módulos SOCAMM para NVIDIA, pero ya se han iniciado conversaciones con Samsung y SK Hynix para ampliar la capacidad de producción y reforzar la cadena de suministro.
SOCAMM ha sido diseñada específicamente para los nuevos requisitos que plantea la infraestructura de IA, donde cada vatio de consumo cuenta, y la densidad energética, la capacidad de actualización y la velocidad son clave.
Implicaciones para el futuro del hardware de IA
La adopción de SOCAMM marca un cambio estructural en cómo se diseñan y escalan los sistemas de computación para IA. Al permitir la sustitución y mejora de la memoria sin reemplazar el sistema completo, NVIDIA se anticipa a una nueva era de modularidad y sostenibilidad en el hardware para inteligencia artificial.
Se espera que esta tecnología no solo se consolide en el ecosistema de productos de NVIDIA, sino que también establezca un precedente para otras arquitecturas que buscan combinar eficiencia energética, rendimiento extremo y escalabilidad en entornos exigentes como centros de datos, estaciones de trabajo y dispositivos edge de IA.
Con la próxima generación SOCAMM 2 en camino, y el creciente interés de otros gigantes de la memoria, todo apunta a que este formato modular de bajo consumo jugará un papel protagonista en el futuro de la computación inteligente.