La carrera por abaratar y escalar la computación para Inteligencia Artificial está empujando a los grandes proveedores de nube —y a su ecosistema de socios— hacia una fase nueva: más racks con aceleradores a medida (ASIC) y menos dependencia exclusiva de hardware estándar. La tesis es clara: cuando los volúmenes de inferencia crecen, la eficiencia por euro y por vatio pasa a mandar; y ahí, los diseños específicos (TPU, chips internos, aceleradores personalizados) ganan atractivo frente a soluciones generalistas.
En ese contexto, varias fuentes del sector apuntan a un fuerte repunte de envíos de ASIC para cloud en 2026, con Broadcom capturando proyectos de producción a gran escala con múltiples proveedores de servicios cloud (CSP) y, en paralelo, compañías taiwanesas de diseño y backend como MediaTek, Alchip y GUC incorporando nuevos productos a producción en volumen. El objetivo: acelerar el despliegue de racks “ASIC-first” sin esperar a ciclos más largos de hardware tradicional.
La inflexión: el negocio se desplaza del entrenamiento a la inferencia (y a los agentes)
El cambio de fondo no es solo tecnológico, sino económico. TrendForce describe que, tras una etapa dominada por el entrenamiento de grandes modelos con servidores GPU + HBM, desde la segunda mitad de 2025 el mercado se reorienta hacia la inferenciaservicio (Copilot, Gemini y aplicaciones basadas en LLaMA, entre otras), con un peso creciente de los agentes de IA como vía de monetización. Esa transición hace que la demanda ya no se concentre únicamente en racks “puros” de IA: también sube la presión sobre servidores generales que ejecutan tareas de pre/post-inferencia y almacenamiento.
En paralelo, el gasto de capital acompaña. TrendForce estima que el capex combinado de los cinco grandes CSP norteamericanos (Google, AWS, Meta, Microsoft y Oracle) crecerá un 40% interanual en 2026, en parte por ampliación de infraestructura y en parte por renovación de servidores adquiridos durante el boom 2019–2021.
La cuota ASIC sube a máximos recientes… pero el cuello de botella está en otro sitio
El dato que mejor captura el giro es el reparto de envíos: TrendForce proyecta que los servidores de IA basados en ASIC representarán el 27,8% de las unidades en 2026, el porcentaje más alto desde 2023, mientras que los sistemas con GPU seguirán liderando con un 69,7%.
Dentro del mundo ASIC, Google aparece como el caso más avanzado: TrendForce subraya que su apuesta por ASIC propios es superior a la de muchos competidores y que sus TPU (que alimentan Google Cloud Platform) se están comercializando también hacia clientes externos como Anthropic.
Hasta aquí, la demanda parece encaminada. El problema —y el riesgo operativo para 2026— llega por el lado de la oferta: memoria.
Por qué la memoria se ha convertido en el factor limitante
En los racks de IA actuales, la capacidad de cómputo solo se convierte en rendimiento real si el sistema puede alimentar datos con suficiente ancho de banda y baja latencia. Eso coloca a la memoria en el centro:
- DRAM de alto rendimiento (y, en particular, HBM en plataformas GPU) para mover parámetros y activations.
- SSD empresariales para pipelines de datos, cachés y almacenamiento de vectores (RAG), con patrones de acceso más aleatorios y exigentes.
TrendForce, en su previsión sectorial, anticipa que la demanda sostenida de servidores de IA y almacenamiento empresarial seguirá empujando al alza el mercado de memoria hasta 2027, con crecimientos anuales por encima del 50% y un pico de ingresos proyectado para ese año (842.700 millones de dólares), tras un 2026 también récord (551.600 millones). (Cifras difundidas por TrendForce en enero de 2026 en su análisis del mercado DRAM/NAND.)
Y aquí encaja la advertencia clave del sector ASIC: aunque el volumen de proyectos y la disposición a desplegar racks están más claros que hace un año, la asignación de memoria para 2026 —en capacidad y calendario— se está convirtiendo en el elemento menos estable. En otras palabras: puedes tener el ASIC, la placa, la red y el rack; pero si no tienes el “presupuesto” de memoria necesario, la puesta en producción se ralentiza.
Qué significa esto para 2026: más diseño “a medida” y más contratos a largo plazo
Con la memoria como recurso estratégico, los CSP y los integradores están ajustando la estrategia en dos frentes:
- Asegurar suministro: contratos plurianuales para 2027–2028 y acuerdos de capacidad que amortigüen la volatilidad del corto plazo.
- Optimizar arquitectura: diseños que reduzcan presión de memoria sin degradar SLA (jerarquías de caché, compresión, batching en inferencia, afinado de RAG, o cambios en prompting y context management).
La consecuencia para el ecosistema de proveedores es doble. Por un lado, los desarrolladores de ASIC y sus socios (EDA, empaquetado, substrates, validación) entran en una ventana de crecimiento evidente. Por otro, la memoria y el almacenamiento se convierten en el “peaje” que puede decidir quién despliega primero y quién se queda esperando.
Tabla 1 — Cadena de valor de un rack de IA con ASIC (dónde se gana o se pierde el ritmo)
| Capa del sistema | Qué aporta | Riesgo 2026 más habitual | Cómo se mitiga |
|---|---|---|---|
| ASIC (acelerador) | Coste/rendimiento optimizado para cargas concretas | Ramp-up de volumen y time-to-yield | Co-diseño con CSP, iteraciones cortas, validación previa |
| CPU/host | Orquestación, pre/post-inferencia | Saturación por crecimiento de inferencia | Renovación de flota, balanceo, offload |
| Memoria (DRAM/HBM) | Ancho de banda y latencia | Asignación insuficiente o cara | Contratos, priorización, rediseño de perfiles |
| Almacenamiento (SSD) | Dataset, vectores, cachés | IOPS y disponibilidad en SSD enterprise | JBOF/JBOD, escalado por capas, tiering |
| Red (Ethernet/InfiniBand) | Escala y east-west | Cuellos por tráfico de inferencia | Topologías específicas, 400G/800G, traffic engineering |
Tabla 2 — Lectura ejecutiva: por qué el “riesgo memoria” importa incluso si el ASIC está listo
| Señal | Qué indica | Impacto directo |
|---|---|---|
| Suben los planes de compra de ASIC | La demanda ya está decidida | Más presión en nodos avanzados y backend |
| El despliegue se retrasa “sin razón de demanda” | El problema está en oferta | La memoria manda el calendario real |
| Se firman contratos 2027–2028 | Se asume escasez en el corto plazo | Se “compensa” después, pero 2026 pierde velocidad |
Preguntas frecuentes
¿Qué es un cloud ASIC y por qué se está acelerando su adopción en 2026?
Un cloud ASIC es un acelerador diseñado para cargas concretas (por ejemplo, inferencia de modelos), normalmente promovido por un CSP para optimizar coste, consumo y rendimiento frente a hardware generalista. La expansión de la inferencia y de los agentes de IA hace que esa eficiencia sea más valiosa que nunca.
¿Cuánta cuota pueden alcanzar los servidores de IA basados en ASIC en 2026?
TrendForce proyecta que los servidores de IA basados en ASIC rondarán el 27,8% de los envíos en 2026, un máximo reciente, aunque las GPU seguirán dominando la mayor parte del mercado.
¿Por qué la memoria (DRAM/HBM y SSD empresariales) se considera el gran riesgo para el despliegue?
Porque la IA moderna es intensiva en ancho de banda y acceso a datos. Si la memoria no llega en volumen y calendario, el rack no entrega el rendimiento esperado y se retrasa la puesta en producción, aunque el acelerador ya esté validado.
¿Qué implicaciones puede tener esto en precios y disponibilidad de servicios de IA en la nube?
Si la oferta de memoria y almacenamiento tensiona el despliegue, el coste efectivo por token o por consulta puede tardar más en bajar. En paralelo, los CSP tenderán a priorizar cargas con retorno más claro y a endurecer la gobernanza del consumo (cupos, throttling, niveles de servicio).
Fuente: Jukan en X