TSMC dispara la carrera por la memoria de IA: HBM4E personalizada, lógica a 3 nm y el doble de eficiencia energética
TSMC ha aprovechado su foro Open Innovation Platform (OIP), celebrado hace unos días en Ámsterdam, para enviar un mensaje claro al mercado: la próxima gran batalla de la inteligencia artificial no se jugará solo en las GPU, sino en la memoria de alto ancho de banda. La compañía taiwanesa ha detallado su estrategia para la generación HBM4/HBM4E, con un nuevo “C-HBM4E” personalizado que combina un base die en nodo N3P (3 nm mejorado) y una integración mucho más estrecha entre lógica y DRAM. Según datos recopilados por TrendForce y presentados por TSMC, el objetivo es ambicioso: multiplicar por dos la eficiencia energética frente a los procesos DRAM actuales, al tiempo que se reduce la tensión de funcionamiento hasta 0,75 V

