NVIDIA vive uno de los momentos más dulces de su historia: sus ventas de GPUs para inteligencia artificial están “off the charts”, muy por encima de las previsiones, y sus beneficios se han disparado gracias a la fiebre por entrenar y ejecutar modelos de IA generativa en la nube. Pero, mientras la compañía de Jensen Huang domina el presente, cada vez más gigantes tecnológicos están construyendo su propio futuro con chips a medida.
Google, Amazon, Microsoft, OpenAI, Apple, Meta o Tesla están impulsando una nueva generación de procesadores de IA: ASICs personalizados, FPGAs y NPUs para el edge que buscan reducir la dependencia de NVIDIA y abaratar el coste por cómputo. El resultado es un mapa de hardware de IA mucho más fragmentado y competitivo que hace apenas unos años.
De las GPU para videojuegos al motor de la revolución de la IA
Aunque hoy parezca evidente, el dominio de NVIDIA no estaba escrito en piedra. Sus GPUs nacieron como aceleradores gráficos para videojuegos, pero en 2012 dieron un salto histórico cuando se utilizaron para entrenar AlexNet, la red neuronal que muchos consideran el “big bang” de la IA moderna.
Mientras otros competidores en aquel famoso concurso de visión por computador usaban CPUs, AlexNet aprovechó el paralelismo masivo de las GPUs para entrenar el modelo con mucha más rapidez y precisión. Ese momento cambió la narrativa: las tarjetas que antes movían gráficos 3D eran también excelentes para multiplicar matrices y entrenar redes neuronales profundas.
Hoy, las GPUs de NVIDIA se venden en sistemas de rack completos, como el GB200 NVL72, que integra 72 GPUs Blackwell trabajando como un único “superchip”. La compañía explica que estos racks se venden en torno a los 3 millones de dólares la unidad y que está enviando aproximadamente 1.000 sistemas por semana a clientes de todo el mundo. En el último año, habría entregado en torno a 6 millones de GPUs Blackwell de última generación.
Estas máquinas no se quedan en los laboratorios: alimentan centros de datos de Amazon, Microsoft, Google, Oracle, CoreWeave y gobiernos como Corea del Sur, Arabia Saudí o Reino Unido. Grandes modelos de lenguaje como los de OpenAI o Anthropic se entrenan sobre cientos de miles de estas GPUs.
La clave no es solo el hardware: CUDA, la plataforma de software propietaria de NVIDIA, se ha convertido en el estándar de facto para programar GPUs en IA, algo que ni siquiera AMD, con su ecosistema más abierto, ha logrado igualar a nivel de comunidad y herramientas.
ASICs: los chips a medida con los que Google, Amazon y OpenAI buscan más control
Pero a medida que el mercado madura, muchos hiperescalares quieren algo diferente a un “cuchillo suizo” como la GPU. Para la fase de inferencia –cuando el modelo ya entrenado responde a consultas de usuarios–, empiezan a ganar peso chips más simples, especializados y eficientes: los ASICs (Application-Specific Integrated Circuits).
Un ASIC es lo contrario de la versatilidad. Está “cableado” para hacer un tipo de cálculo muy concreto, pero lo hace con enorme eficiencia. No se puede reprogramar una vez fabricado, así que se pierde flexibilidad a cambio de velocidad y menor coste por operación.
Google: una década de experiencia con sus TPUs
Google fue el pionero en esta vía. En 2015 lanzó su primera Tensor Processing Unit (TPU), un ASIC diseñado desde cero para acelerar tareas de IA. Desde entonces, ha ido iterando hasta llegar a su séptima generación, TPU Ironwood, presentada en noviembre de 2025.
Las TPUs se utilizan internamente para productos como Búsqueda, YouTube, Traducción o Gmail, y también alimentan la infraestructura de Google Cloud. Anthropic, por ejemplo, ha anunciado que entrenará su modelo Claude sobre hasta 1 millón de TPUs.
Algunos expertos consideran que, en ciertos escenarios, las TPUs están técnicamente a la altura –o incluso por encima– de las GPUs de NVIDIA en rendimiento bruto para tareas específicas. Hasta ahora, Google ha sido muy selectivo al ofrecerlas a terceros, pero la presión del mercado podría llevarle a abrir más su plataforma en el futuro.
Amazon: Inferentia y Trainium para entrenar y servir modelos en AWS
Amazon Web Services tomó el relevo en la carrera de ASICs tras comprar la startup Annapurna Labs. En 2018 llegó Inferentia para la inferencia y, en 2022, Trainium para entrenamiento. La segunda generación, Trainium2, ya alimenta uno de los mayores centros de datos de IA de la compañía en Indiana, donde Anthropic entrena sus modelos sobre cientos de miles de chips dedicados.
El arquitecto jefe de Trainium ha señalado que sus ASICs logran entre un 30 % y un 40 % mejor precio-rendimiento que otros aceleradores disponibles en AWS. Aun así, AWS sigue comprando grandes volúmenes de GPUs de NVIDIA para clientes que prefieren ese ecosistema.
OpenAI y Broadcom: el siguiente paso
OpenAI tampoco quiere depender eternamente de los chips de terceros. La compañía ha cerrado un acuerdo con Broadcom para desarrollar sus propios ASICs de IA a partir de 2026. Broadcom ya ha colaborado en el diseño de las TPUs de Google y de los aceleradores de Meta, consolidándose como uno de los grandes ganadores “silenciosos” del boom de la IA.
Microsoft, por su parte, desarrolla los chips Maia 100 para sus centros de datos, mientras que otros actores como Tesla, Qualcomm, Huawei, ByteDance o Alibaba trabajan también en sus propios diseños.
IA en el borde: NPUs y chips integrados en PCs, móviles y coches
No todo ocurre en la nube. Una parte creciente de la inteligencia artificial se ejecuta directamente en dispositivos –móviles, portátiles, coches, cámaras o robots– gracias a NPUs (Neural Processing Units) y otros aceleradores integrados en los SoCs.
El objetivo es doble:
- Reducir la latencia, sin necesidad de enviar datos al centro de datos.
- Mejorar la privacidad, manteniendo información sensible en el propio dispositivo.
Fabricantes como Qualcomm, Intel y AMD están integrando NPUs en sus procesadores para PC, mientras que Apple incluye un “Neural Engine” dedicado en sus chips de la familia M para Mac y en los A-series de iPhone. Los últimos Android de gama alta también incorporan NPUs en los Snapdragon o en los Exynos con NPU propia de Samsung.
Estas unidades permiten ejecutar asistentes locales, traducción en tiempo real, edición avanzada de foto y vídeo o funciones de seguridad sin depender constantemente de la nube. Aunque hoy la mayor parte del gasto en IA se concentra en centros de datos, muchos analistas prevén que el gasto en IA en el edge crecerá con fuerza a medida que se generalicen estas funciones en el día a día.
FPGAs: la pieza flexible del puzle
El cuarto gran tipo de chip en este ecosistema son las FPGAs (Field-Programmable Gate Arrays), dispositivos reconfigurables mediante software. No son tan eficientes como un ASIC ni tan potentes como una GPU para entrenar modelos gigantes, pero ofrecen un equilibrio interesante: se pueden adaptar a nuevos algoritmos tras su fabricación.
Compañías como AMD (tras la compra de Xilinx) e Intel (tras adquirir Altera) dominan este segmento. Las FPGAs se utilizan en redes, telecomunicaciones, automatización industrial, automoción y, en algunos casos, como aceleradores de inferencia para tareas muy específicas donde la flexibilidad es clave.
TSMC, el auténtico “común denominador” de la revolución de la IA
Detrás de casi todos estos chips –GPUs de NVIDIA y AMD, TPUs de Google, Trainium de Amazon, ASICs de OpenAI, NPUs de Apple y Qualcomm– hay un mismo fabricante: TSMC (Taiwan Semiconductor Manufacturing Company).
La fundición taiwanesa produce los nodos más avanzados del mundo y se ha convertido en un actor estratégico para la cadena de suministro de IA. Desde su nueva planta en Arizona hasta sus fábricas en Taiwán, la compañía es la responsable de que buena parte de estos chips existan físicamente.
Esto añade una capa geopolítica y de riesgos de concentración: aunque la competencia en diseño de chips se intensifica, la capacidad de fabricación sigue muy concentrada en unos pocos actores, con TSMC a la cabeza.
NVIDIA sigue en el centro del tablero
Con tanta diversidad de chips, la gran pregunta es si NVIDIA corre el riesgo de perder el trono. Por ahora, la respuesta mayoritaria entre analistas es que no a corto plazo.
La compañía no solo ha logrado posicionarse como el estándar de facto en hardware, sino que ha construido durante años un ecosistema de desarrolladores, bibliotecas y herramientas extremadamente difícil de replicar. Los clientes corporativos y las startups valoran esa madurez, especialmente para proyectos en producción que no pueden permitirse apostar por plataformas inmaduras.
Los ASICs crecerán, las NPUs se multiplicarán en el edge y las FPGAs seguirán ocupando su nicho, pero hoy por hoy, las GPUs de NVIDIA siguen siendo el caballo de batalla de la revolución de la IA. Y, como recuerdan algunos expertos, esa posición no es fruto del azar, sino de décadas de inversión en hardware y software.
Preguntas frecuentes sobre chips de IA
¿Por qué las GPUs son tan importantes para la inteligencia artificial?
Porque están diseñadas para ejecutar en paralelo miles de operaciones matemáticas simples, lo que encaja muy bien con el tipo de cálculos que requieren las redes neuronales. Eso las hace ideales tanto para entrenar modelos grandes como para ejecutar (inferir) respuestas a partir de esos modelos.
¿Qué ventaja tienen los ASICs frente a las GPUs en IA?
Los ASICs sacrifican flexibilidad a cambio de eficiencia: se diseñan para un tipo de tarea concreto y la realizan con mejor rendimiento por vatio y menor coste por operación. Son especialmente atractivos para grandes proveedores cloud que ejecutan siempre el mismo tipo de cargas a gran escala.
¿Qué es exactamente una NPU en un móvil u ordenador?
Una NPU (Neural Processing Unit) es un acelerador integrado en el propio chip del dispositivo, pensado para ejecutar modelos de IA de forma local. Permite funciones como fotografía computacional avanzada, asistentes inteligentes o traducciones en tiempo real sin depender siempre de la nube, reduciendo la latencia y mejorando la privacidad.
¿Puede algún competidor destronar a NVIDIA en el mercado de chips de IA?
En teoría sí, pero no es solo una cuestión de rendimiento bruto. Habría que igualar su ecosistema de software (CUDA), su red de socios y su capacidad de ejecutar a escala. Por eso, la estrategia de muchos gigantes no es “matar” a NVIDIA, sino combinar sus GPUs con chips a medida que les den más control sobre costes y carga de trabajo.
vía: cnbc