El cuello de botella de TSMC pone en duda el salto total de NVIDIA a A16

La próxima gran arquitectura de NVIDIA para centros de datos, Feynman, ya empieza a dejar una lección antes incluso de llegar al mercado: en la era de la inteligencia artificial, no basta con diseñar el chip más ambicioso; también hay que conseguir capacidad suficiente para fabricarlo. En las últimas horas ha circulado con fuerza desde Asia la idea de que la falta de capacidad en el nodo A16 de TSMC estaría obligando a NVIDIA a replantear parte del diseño de sus futuras GPU, previstas para 2028. Por ahora no hay confirmación oficial de NVIDIA ni de TSMC sobre ese supuesto rediseño, así que conviene tratarlo como lo que es: un rumor de cadena de suministro, relevante, pero todavía no verificado públicamente.

Lo que sí está confirmado es el contexto que hace creíble esa hipótesis. TSMC presentó A16 como un proceso especialmente orientado a productos HPC e inteligencia artificial, con transistores nanosheet y tecnología Super Power Rail, y mantiene que su producción en volumen arrancará en la segunda mitad de 2026. Frente a N2P, TSMC asegura para A16 entre un 8 % y un 10 % más de velocidad al mismo consumo, entre un 15 % y un 20 % menos de energía a igual rendimiento y entre un 7 % y un 10 % más de densidad. Es, sobre el papel, exactamente el tipo de nodo que encaja con una generación como Feynman, que NVIDIA ya ha situado oficialmente en su hoja de ruta para 2028.

La cuestión es que el papel aguanta todo, pero la capacidad fabril no. En enero, TSMC ya reconocía en su conferencia de resultados que la demanda de silicio avanzado ligada a la IA seguía siendo muy fuerte, que los grandes clientes mantenían previsiones positivas y que incluso los clientes de sus clientes —principalmente los grandes proveedores cloud— estaban reclamando capacidad directamente. Esa presión no se limita a un solo nodo ni a un único cliente. Reuters publicaba precisamente este 24 de marzo de 2026 que Broadcom también ve la capacidad de TSMC como un cuello de botella y que la propia fundición taiwanesa está topando con límites de producción a medida que la demanda de chips para IA se dispara.

Un rumor plausible, pero no confirmado

El origen de la versión que apunta a cambios en Feynman está en informes y ecos de la cadena de suministro asiática que sostienen que NVIDIA habría planeado inicialmente esta familia sobre A16, pero que ahora tendría que combinar ese nodo con N3P para ciertos bloques menos críticos. La lectura que hacen estos medios es que los die o chiplets más sensibles seguirían en A16, mientras que otras partes migrarían a un proceso más maduro y con mayor disponibilidad. La información, tal y como circula, no ha sido ratificada por las empresas implicadas, y ese matiz importa mucho porque en semiconductores una diferencia entre “objetivo de diseño”, “prueba de ingeniería” y “producto final” cambia por completo la interpretación.

Aun así, la hipótesis no resulta descabellada. La propia TSMC ha dejado claro que A16 no es un nodo generalista, sino una tecnología pensada para ciertos chips de muy alto rendimiento con necesidades complejas de señal y alimentación. Y cuanto más específico y avanzado es un nodo, más difícil resulta escalarlo rápidamente. Además, la industria lleva meses viendo cómo la IA empuja al límite no solo las obleas avanzadas, sino también el empaquetado, la memoria HBM, los interposers, los láseres y hasta segmentos menos visibles de la cadena de suministro. Si una compañía como Broadcom ya habla abiertamente de restricciones en TSMC, no sería extraño que NVIDIA también tenga que ajustar calendarios, mezclas de nodos o distribución interna de bloques en generaciones futuras.

Lo que realmente está en juego para NVIDIA

Más allá del rumor concreto, lo importante es lo que revela sobre el mercado. NVIDIA sigue dominando la infraestructura de IA, pero ni siquiera ese dominio garantiza acceso ilimitado al proceso más avanzado del mayor fabricante del mundo. Y eso tiene varias implicaciones. La primera es técnica: si Feynman acaba combinando nodos, NVIDIA tendría que optimizar aún más el reparto entre bloques de lógica, memoria e interconexión para no comprometer eficiencia, rendimiento o consumo. La segunda es industrial: la ventaja competitiva en IA ya no depende solo de arquitectura, software y ecosistema, sino también de la capacidad de asegurar suministro a varios años vista.

La tercera implicación es más amplia y afecta al resto del sector. Si TSMC tiene que administrar con lupa A16 para clientes de primer nivel, el margen para empresas más pequeñas será todavía más estrecho. Eso refuerza una tendencia que ya se estaba viendo: contratos más largos, planificación más agresiva y diversificación parcial cuando sea posible. En otras palabras, la era de la IA no solo ha multiplicado la demanda de cómputo; también ha convertido la capacidad fabril avanzada en un activo estratégico escaso.

Por ahora, la prudencia sigue siendo obligatoria. NVIDIA ha enseñado que Feynman forma parte de su generación de 2028 y TSMC mantiene que A16 llegará a producción en la segunda mitad de 2026. Lo demás —si Feynman será íntegramente A16, si mezclará A16 y N3P o si ajustará su diseño por falta de capacidad— sigue estando en el terreno de la especulación industrial. Pero incluso así, el mensaje de fondo ya es bastante claro: la próxima batalla de la IA no se libra solo en los laboratorios de diseño, sino también en la capacidad de convertir esos diseños en obleas reales a tiempo y en volumen suficiente.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×