2026 apunta a ser el “año del ASIC” en la nube, pero la memoria puede frenar el despliegue

La carrera por abaratar y escalar la computación para Inteligencia Artificial está empujando a los grandes proveedores de nube —y a su ecosistema de socios— hacia una fase nueva: más racks con aceleradores a medida (ASIC) y menos dependencia exclusiva de hardware estándar. La tesis es clara: cuando los volúmenes de inferencia crecen, la eficiencia por euro y por vatio pasa a mandar; y ahí, los diseños específicos (TPU, chips internos, aceleradores personalizados) ganan atractivo frente a soluciones generalistas.

En ese contexto, varias fuentes del sector apuntan a un fuerte repunte de envíos de ASIC para cloud en 2026, con Broadcom capturando proyectos de producción a gran escala con múltiples proveedores de servicios cloud (CSP) y, en paralelo, compañías taiwanesas de diseño y backend como MediaTek, Alchip y GUC incorporando nuevos productos a producción en volumen. El objetivo: acelerar el despliegue de racks “ASIC-first” sin esperar a ciclos más largos de hardware tradicional.

La inflexión: el negocio se desplaza del entrenamiento a la inferencia (y a los agentes)

El cambio de fondo no es solo tecnológico, sino económico. TrendForce describe que, tras una etapa dominada por el entrenamiento de grandes modelos con servidores GPU + HBM, desde la segunda mitad de 2025 el mercado se reorienta hacia la inferenciaservicio (Copilot, Gemini y aplicaciones basadas en LLaMA, entre otras), con un peso creciente de los agentes de IA como vía de monetización. Esa transición hace que la demanda ya no se concentre únicamente en racks “puros” de IA: también sube la presión sobre servidores generales que ejecutan tareas de pre/post-inferencia y almacenamiento.

En paralelo, el gasto de capital acompaña. TrendForce estima que el capex combinado de los cinco grandes CSP norteamericanos (Google, AWS, Meta, Microsoft y Oracle) crecerá un 40% interanual en 2026, en parte por ampliación de infraestructura y en parte por renovación de servidores adquiridos durante el boom 2019–2021.

La cuota ASIC sube a máximos recientes… pero el cuello de botella está en otro sitio

El dato que mejor captura el giro es el reparto de envíos: TrendForce proyecta que los servidores de IA basados en ASIC representarán el 27,8% de las unidades en 2026, el porcentaje más alto desde 2023, mientras que los sistemas con GPU seguirán liderando con un 69,7%.

Dentro del mundo ASIC, Google aparece como el caso más avanzado: TrendForce subraya que su apuesta por ASIC propios es superior a la de muchos competidores y que sus TPU (que alimentan Google Cloud Platform) se están comercializando también hacia clientes externos como Anthropic.

Hasta aquí, la demanda parece encaminada. El problema —y el riesgo operativo para 2026— llega por el lado de la oferta: memoria.

Por qué la memoria se ha convertido en el factor limitante

En los racks de IA actuales, la capacidad de cómputo solo se convierte en rendimiento real si el sistema puede alimentar datos con suficiente ancho de banda y baja latencia. Eso coloca a la memoria en el centro:

  • DRAM de alto rendimiento (y, en particular, HBM en plataformas GPU) para mover parámetros y activations.
  • SSD empresariales para pipelines de datos, cachés y almacenamiento de vectores (RAG), con patrones de acceso más aleatorios y exigentes.

TrendForce, en su previsión sectorial, anticipa que la demanda sostenida de servidores de IA y almacenamiento empresarial seguirá empujando al alza el mercado de memoria hasta 2027, con crecimientos anuales por encima del 50% y un pico de ingresos proyectado para ese año (842.700 millones de dólares), tras un 2026 también récord (551.600 millones). (Cifras difundidas por TrendForce en enero de 2026 en su análisis del mercado DRAM/NAND.)

Y aquí encaja la advertencia clave del sector ASIC: aunque el volumen de proyectos y la disposición a desplegar racks están más claros que hace un año, la asignación de memoria para 2026 —en capacidad y calendario— se está convirtiendo en el elemento menos estable. En otras palabras: puedes tener el ASIC, la placa, la red y el rack; pero si no tienes el “presupuesto” de memoria necesario, la puesta en producción se ralentiza.

Qué significa esto para 2026: más diseño “a medida” y más contratos a largo plazo

Con la memoria como recurso estratégico, los CSP y los integradores están ajustando la estrategia en dos frentes:

  1. Asegurar suministro: contratos plurianuales para 2027–2028 y acuerdos de capacidad que amortigüen la volatilidad del corto plazo.
  2. Optimizar arquitectura: diseños que reduzcan presión de memoria sin degradar SLA (jerarquías de caché, compresión, batching en inferencia, afinado de RAG, o cambios en prompting y context management).

La consecuencia para el ecosistema de proveedores es doble. Por un lado, los desarrolladores de ASIC y sus socios (EDA, empaquetado, substrates, validación) entran en una ventana de crecimiento evidente. Por otro, la memoria y el almacenamiento se convierten en el “peaje” que puede decidir quién despliega primero y quién se queda esperando.


Tabla 1 — Cadena de valor de un rack de IA con ASIC (dónde se gana o se pierde el ritmo)

Capa del sistemaQué aportaRiesgo 2026 más habitualCómo se mitiga
ASIC (acelerador)Coste/rendimiento optimizado para cargas concretasRamp-up de volumen y time-to-yieldCo-diseño con CSP, iteraciones cortas, validación previa
CPU/hostOrquestación, pre/post-inferenciaSaturación por crecimiento de inferenciaRenovación de flota, balanceo, offload
Memoria (DRAM/HBM)Ancho de banda y latenciaAsignación insuficiente o caraContratos, priorización, rediseño de perfiles
Almacenamiento (SSD)Dataset, vectores, cachésIOPS y disponibilidad en SSD enterpriseJBOF/JBOD, escalado por capas, tiering
Red (Ethernet/InfiniBand)Escala y east-westCuellos por tráfico de inferenciaTopologías específicas, 400G/800G, traffic engineering

Tabla 2 — Lectura ejecutiva: por qué el “riesgo memoria” importa incluso si el ASIC está listo

SeñalQué indicaImpacto directo
Suben los planes de compra de ASICLa demanda ya está decididaMás presión en nodos avanzados y backend
El despliegue se retrasa “sin razón de demanda”El problema está en ofertaLa memoria manda el calendario real
Se firman contratos 2027–2028Se asume escasez en el corto plazoSe “compensa” después, pero 2026 pierde velocidad

Preguntas frecuentes

¿Qué es un cloud ASIC y por qué se está acelerando su adopción en 2026?
Un cloud ASIC es un acelerador diseñado para cargas concretas (por ejemplo, inferencia de modelos), normalmente promovido por un CSP para optimizar coste, consumo y rendimiento frente a hardware generalista. La expansión de la inferencia y de los agentes de IA hace que esa eficiencia sea más valiosa que nunca.

¿Cuánta cuota pueden alcanzar los servidores de IA basados en ASIC en 2026?
TrendForce proyecta que los servidores de IA basados en ASIC rondarán el 27,8% de los envíos en 2026, un máximo reciente, aunque las GPU seguirán dominando la mayor parte del mercado.

¿Por qué la memoria (DRAM/HBM y SSD empresariales) se considera el gran riesgo para el despliegue?
Porque la IA moderna es intensiva en ancho de banda y acceso a datos. Si la memoria no llega en volumen y calendario, el rack no entrega el rendimiento esperado y se retrasa la puesta en producción, aunque el acelerador ya esté validado.

¿Qué implicaciones puede tener esto en precios y disponibilidad de servicios de IA en la nube?
Si la oferta de memoria y almacenamiento tensiona el despliegue, el coste efectivo por token o por consulta puede tardar más en bajar. En paralelo, los CSP tenderán a priorizar cargas con retorno más claro y a endurecer la gobernanza del consumo (cupos, throttling, niveles de servicio).

Fuente: Jukan en X

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×