SOCAMM se abre paso como “segunda memoria” para servidores de IA, y amenaza con tensar el mercado de LPDDR
Durante años, el debate sobre la memoria en centros de datos de inteligencia artificial se ha contado casi siempre con las mismas siglas: HBM. Tiene sentido: el ancho de banda de la High Bandwidth Memory se ha convertido en un pilar para entrenar y ejecutar modelos cada vez más grandes. Pero en paralelo, y casi en voz baja, está creciendo otro frente que apunta a algo distinto: más modularidad, más densidad y menos dependencia de diseños “soldados” para siempre en placa. Ahí entra SOCAMM (y su evolución, SOCAMM2), un formato de módulo basado en memoria LPDDR que NVIDIA ha mostrado como parte de su hoja de ruta para sistemas de IA. La idea rompe con el enfoque tradicional de “todo