2026 apunta a ser el “año del ASIC” en la nube, pero la memoria puede frenar el despliegue
La carrera por abaratar y escalar la computación para Inteligencia Artificial está empujando a los grandes proveedores de nube —y a su ecosistema de socios— hacia una fase nueva: más racks con aceleradores a medida (ASIC) y menos dependencia exclusiva de hardware estándar. La tesis es clara: cuando los volúmenes de inferencia crecen, la eficiencia por euro y por vatio pasa a mandar; y ahí, los diseños específicos (TPU, chips internos, aceleradores personalizados) ganan atractivo frente a soluciones generalistas. En ese contexto, varias fuentes del sector apuntan a un fuerte repunte de envíos de ASIC para cloud en 2026, con Broadcom capturando proyectos de producción a gran escala con múltiples proveedores de servicios cloud (CSP) y, en paralelo, compañías taiwanesas
