
Micron eleva el listón de la memoria para centros de datos: llega el primer SOCAMM2 de 256 GB y abre la puerta a servidores con 2 TB de LPDDR por CPU
La carrera de la Inteligencia Artificial en el centro de datos se suele contar en GPUs, en redes y en vatios por rack. Pero, en la práctica, muchos cuellos de botella se están desplazando a un componente menos “glamuroso” y mucho más determinante: la memoria. Micron ha querido poner cifras y producto sobre la mesa con un anuncio que apunta directamente al corazón del problema: la compañía ya está enviando muestras a clientes de SOCAMM2 de 256 GB, un módulo de LPDRAM (LPDDR5X adaptada a servidor) con el que busca acelerar arquitecturas de inferencia y cómputo general con un consumo sensiblemente menor que el de las RDIMM tradicionales. El contexto es relevante: la combinación de entrenamiento, inferencia, agentes y cargas

