La memoria amenaza con devorar el gasto cloud de los hiperescalares
La siguiente gran tensión de la inteligencia artificial no parece estar solo en las GPU. Cada vez más analistas y fabricantes están poniendo el foco en la memoria, hasta el punto de que ya empieza a hablarse de una nueva fase del ciclo: la de una infraestructura de IA donde DRAM, LPDDR5 y HBM pesan cada vez más en el coste total de los sistemas y en el capex de los grandes operadores cloud. La tesis más agresiva la ha formulado SemiAnalysis, que estima que la memoria pasará de representar alrededor del 8 % del gasto total de los hiperescalares en 2023 y 2024 a cerca del 30 % en 2026, con más presión aún en 2027. Es una estimación
