
NVIDIA prepara el despliegue de hasta 800.000 módulos SOCAMM en sus productos de inteligencia artificial este año
La nueva memoria modular basada en LPDDR permitirá mayor eficiencia energética, ancho de banda superior y facilidad de actualización en PCs y servidores de IA NVIDIA continúa impulsando la evolución de la inteligencia artificial con una apuesta firme por la memoria modular de bajo consumo. Según ha revelado el medio surcoreano ETNews, la compañía prevé producir entre 600.000 y 800.000 unidades de sus nuevos módulos SOCAMM (Smart On-Board Compression Attached Memory Modules) a lo largo de este año, para integrarlos en su nueva generación de plataformas orientadas a la IA. Una revolución en la memoria para IA Presentada durante el evento GTC de NVIDIA, la tecnología SOCAMM representa un nuevo estándar de memoria LPDDR de clase data center, desarrollada inicialmente