NVIDIA ha cerrado —al menos en lo financiero— uno de los capítulos más simbólicos de su historia reciente: la compañía se ha deshecho de la última participación que mantenía en Arm Holdings. La venta, según recogen informaciones basadas en documentación regulatoria, comprende 1,1 millones de acciones valoradas en torno a US$ 140 millones y se habría materializado durante el cuarto trimestre de 2025, dejando su posición en Arm a cero.
El movimiento no es solo contable. Llega en un momento en el que el sector está replanteándose el papel de la CPU en la nueva oleada de IA agéntica: asistentes capaces de encadenar pasos, llamar herramientas, consultar memoria, lanzar peticiones a APIs y coordinar flujos de trabajo completos. Esa “coreografía” no vive únicamente en la GPU. En muchos entornos reales, la latencia total depende de piezas menos vistosas —colas, orquestación, redes, cachés, serialización de datos— donde la CPU vuelve a ser protagonista.
Un giro con memoria: de la compra frustrada a la salida total
Para entender por qué esta venta ha levantado tanto ruido hay que volver atrás. NVIDIA llegó a acordar la compra de Arm en 2020 por unos US$ 40.000 millones, pero la operación terminó deshaciéndose en 2022 tras una presión regulatoria intensa en varios mercados. Desde entonces, Arm siguió su camino bursátil y NVIDIA conservó una posición minoritaria que ahora queda completamente liquidada.
GFHK noted in their Q&A following their February report that ARM-based CPUs have relatively weak momentum in AI servers, attributing this to lower GPU scheduling efficiency compared to x86.
— Jukan (@jukan05) February 13, 2026
They indicated that companies including NVIDIA plan to develop x86 CPU solutions in…
La lectura oficial (y la más prudente) es la de optimización de cartera: liberar capital, simplificar exposición y pasar página. Pero el contexto hace que muchos miren esta decisión como una señal indirecta dentro de un debate más grande: qué arquitectura de CPU “encaja mejor” cuando la IA deja de ser solo entrenamiento y pasa a ser producción, agentes y millones de microtareas por segundo.
ARM vs x86: el debate que vuelve por la puerta de la inferencia
Durante años, Arm se asoció a eficiencia y escalabilidad, y NVIDIA la abrazó con fuerza: ahí están sus diseños con CPU Arm en productos para centros de datos y supercomputación. Y, aun así, en la era agéntica aparecen matices incómodos.
Una parte del argumento técnico gira en torno a que muchos escenarios de agentes priorizan picos de rendimiento por hilo y tiempos de respuesta, además de integrarse con ecosistemas empresariales donde x86 sigue siendo el “idioma nativo”: hipervisores, toolchains, bibliotecas, entornos legacy, imágenes base, optimizaciones históricas y una operativa de décadas. En otras palabras: para una empresa, el coste de cambiar de arquitectura no es solo el servidor, es todo lo que lo rodea.
La clave práctica para equipos de sistemas y desarrollo es que el cuello de botella rara vez se anuncia con un cartel. A veces la GPU está “parada” esperando una decisión del agente; otras, el problema está en el pipeline (colas, IO, red, tokenización, compresión, RPCs, cachés), y en ese mundo la CPU dicta el ritmo más de lo que muchos presupuestos de compra asumían hace dos años.
Vera, Rubin y la continuidad ARM… con una puerta abierta a x86
Aquí es donde el debate se vuelve interesante: NVIDIA no parece estar abandonando Arm en producto, aunque sí haya abandonado Arm en accionariado.
En su hoja de ruta pública, la compañía ha presentado la plataforma Vera Rubin, donde la CPU “Vera” se apoya en Arm (con un diseño propio y foco en rendimiento para IA a gran escala). Es decir: a nivel de arquitectura, Arm sigue dentro de la visión de NVIDIA para centros de datos.
Pero, al mismo tiempo, han ido apareciendo señales de acercamiento estratégico a x86. Por ejemplo, se ha informado de una colaboración relevante con Intel que incluye integración de tecnologías y una relación industrial que muchos analistas interpretan como una manera de reducir fricción con el universo x86, especialmente en despliegues donde la compatibilidad y la inercia pesan tanto como el rendimiento bruto.
Traducido a lenguaje de CPD: aunque la CPU “propia” de NVIDIA pueda seguir siendo Arm en determinados sistemas, no sería extraño que el ecosistema acabe convergiendo hacia racks y plataformas más heterogéneas, donde convivan aceleradores, redes de alta velocidad y CPUs x86 o Arm según el caso de uso, el software, el proveedor y la realidad operativa del cliente.
Qué significa esto para sysadmins y desarrolladores
Para perfiles técnicos, la noticia no va de acciones, sino de decisiones:
- Planificación de plataforma: si tu estrategia de IA incluye agentes (no solo chat), empieza a medir CPU como un recurso crítico: latencia por llamada, colas, p95/p99, saturación por hilo, y overhead de herramientas.
- Compatibilidad y deuda técnica: en empresas con mucho legado, x86 seguirá ganando por pura fricción organizativa. Arm puede brillar, pero migrar runtimes y pipelines no es “solo recompilar”.
- Arquitecturas híbridas: la tendencia razonable es más mezcla, no menos. Menos dogma (“todo GPU / todo Arm”) y más ingeniería (“esto necesita pico por hilo, esto necesita throughput, esto necesita compatibilidad”).
- Compras con visión de 3 años: la IA agéntica está moviendo el centro de gravedad del coste: no solo cuesta entrenar, cuesta servir; y servir exige eficiencia end-to-end.
Al final, la venta del último paquete de acciones de Arm no sentencia a ninguna arquitectura. Lo que sí hace es dejar un mensaje claro: la batalla de la IA ya no se libra únicamente en la GPU. Y cuando el mercado entiende eso, la CPU deja de ser “lo de siempre” y vuelve a convertirse en un campo de competición estratégica.
Preguntas frecuentes
¿Por qué es importante la venta de acciones de Arm por parte de NVIDIA?
Porque cierra la relación accionarial tras el intento fallido de compra y llega justo cuando la industria reevalúa qué arquitectura de CPU conviene para la IA agéntica y la inferencia a gran escala.
¿La IA agéntica requiere más CPU que la IA tradicional?
Suele aumentar la dependencia de CPU en tareas de orquestación: llamadas a herramientas, APIs, memoria, colas y coordinación. En muchos despliegues, la latencia total y el rendimiento percibido dependen de ese “pegamento”.
¿Significa esto que NVIDIA abandonará Arm en sus CPUs para centros de datos?
No necesariamente. La hoja de ruta de NVIDIA para Vera Rubin mantiene CPU basada en Arm, lo que sugiere continuidad técnica aunque cambie la posición financiera.
¿Qué debería vigilar un equipo de sistemas al desplegar agentes de IA?
Métricas de latencia p95/p99, saturación por hilo, tiempos de IO y red, colas internas, y el coste operativo de compatibilidad (contenedores, librerías, hipervisores y toolchains), porque el cuello de botella puede estar fuera de la GPU.