ASUS ha aprovechado la GTC 2026 para enseñar una de sus apuestas más ambiciosas en infraestructura de inteligencia artificial: una gama completa de sistemas que va desde factorías de IA a escala de rack hasta equipos de escritorio, edge y soluciones empresariales, todo ello articulado alrededor de la plataforma NVIDIA Vera Rubin. El mensaje de la compañía taiwanesa es claro: la siguiente oleada de IA no se jugará solo en grandes centros de datos, sino en una combinación de alto rendimiento, refrigeración avanzada, flexibilidad de despliegue y control local de los datos.
La novedad más visible es su infraestructura totalmente refrigerada por líquido, con la que ASUS quiere responder a una realidad cada vez más evidente: los nuevos clústeres de IA consumen tanta energía y generan tanto calor que la refrigeración clásica empieza a ser insuficiente en muchos escenarios. La compañía asegura que su propuesta está pensada para reducir tanto el PUE como el TCO, aunque, como ocurre con este tipo de anuncios, habrá que ver cómo se trasladan esas promesas a despliegues reales y comparables entre fabricantes.
Una factoría de IA pensada para cargas masivas
La pieza central del anuncio es el ASUS AI POD basado en NVIDIA Vera Rubin NVL72, concretamente el sistema XA VR721-E3, que ASUS describe como una plataforma 100 % refrigerada por líquido para cargas de trabajo de IA a gran escala. Según la compañía, este sistema puede trabajar con un TDP de hasta 227 kW en modo MaxP o 187 kW en MaxQ, y está orientado a modelos de tamaño billonario y a entornos donde la densidad de computación es ya un factor crítico. ASUS sostiene además que la plataforma puede ofrecer hasta 10 veces más rendimiento por vatio, una cifra que debe leerse como una afirmación del fabricante vinculada al salto generacional de la plataforma Rubin.
Para acompañar esa apuesta, ASUS ha confirmado colaboraciones con compañías como Vertiv y Schneider Electric, con la idea de ofrecer una capa completa de alimentación y refrigeración para distintos tipos de despliegue. Esto no es un detalle menor. En la IA de gran escala, el servidor ya no se vende solo como una caja con GPUs, sino como parte de un sistema más amplio en el que la energía, la refrigeración, la redundancia y el diseño del centro de datos son casi tan importantes como la potencia de cálculo.
Junto al AI POD, ASUS también ha presentado nuevos servidores basados en NVIDIA HGX Rubin NVL8. Aquí la estrategia es más flexible: por un lado aparece el XA NR1I-E12L, una opción híbrida que combina refrigeración líquida directa al chip para la base HGX Rubin NVL8 con refrigeración por aire para dos procesadores Intel Xeon 6; por otro, el XA NR1I-E12LR, planteado como sistema completamente refrigerado por líquido. La idea es facilitar una transición más gradual para clientes que todavía no están listos para saltar a liquid cooling total en todo el rack.
Del centro de datos al escritorio y al edge
ASUS no ha querido limitar su discurso a la supercomputación. Otra parte importante de la presentación se centra en llevar capacidades de IA avanzadas al escritorio del desarrollador y al edge industrial. En ese terreno ha mostrado el ASUS ExpertCenter Pro ET900N G3, un sistema de sobremesa construido sobre NVIDIA Grace Blackwell Ultra, y el ASUS Ascent GX10, más pequeño, pero también orientado a desarrollo y experimentación local. En ambos casos, la idea es ofrecer suficiente memoria y rendimiento para trabajar con modelos grandes y agentes autónomos sin depender siempre de la nube.
ASUS enlaza estos equipos con NVIDIA NemoClaw, la pila open source que NVIDIA presentó esta semana para facilitar la ejecución de asistentes siempre activos basados en OpenClaw. NemoClaw instala OpenShell, un runtime también abierto que añade un entorno aislado, control de permisos y salvaguardas de privacidad para ejecutar agentes autónomos con más seguridad. Esa capa es especialmente relevante porque el problema de los agentes ya no es solo su inteligencia, sino cómo se les da acceso a herramientas, datos y entornos de ejecución sin abrir riesgos innecesarios en empresas y administraciones.
En el extremo edge del catálogo, ASUS ha presentado el PE3000N, un motor rugerizado de inferencia impulsado por NVIDIA Jetson Thor que, según la compañía, alcanza 2.070 TFLOPS y está pensado para fusión de sensores, navegación autónoma y cargas físicas de IA. Aquí la ambición es clara: construir una cadena completa que vaya desde el entrenamiento y ajuste de modelos hasta su despliegue en sistemas de borde, donde latencia, resistencia física y autonomía importan más que el brillo del marketing.
ASUS quiere vender una pila completa, no solo hardware
La tercera capa del anuncio está en el software y en el posicionamiento empresarial. ASUS ha reforzado su mensaje alrededor de ASUS AI Hub, una plataforma on-premise que ya había presentado a finales de 2025 como solución lista para desplegar asistentes corporativos, flujos de RAG e inteligencia documental con control local del dato. En la nota de esta semana, la compañía asegura que la plataforma ya se ha usado internamente con más de 10.000 empleados, con picos superiores a 600 solicitudes por hora, más de 80 % de precisión OCR y mejoras de eficiencia de más del 30 %. Son métricas internas de ASUS, útiles para entender el caso de uso, aunque no equivalen a una validación independiente del mercado.
A esto se suma una red de socios de almacenamiento certificados por NVIDIA, entre ellos IBM, DDN, WEKA y VAST Data, con el objetivo de completar la oferta para entornos de IA y HPC donde el almacenamiento vuelve a ser un cuello de botella. ASUS habla de soluciones de bloque, objeto, JBOD y sistemas definidos por software, lo que refuerza la idea de que quiere competir no solo como fabricante de servidores, sino como integrador de una arquitectura de IA completa.
En el fondo, ASUS se está moviendo en la misma dirección que otros grandes proveedores presentes en GTC 2026: vender factorías de IA como concepto integral. La diferencia es que intenta cubrir casi todos los escalones, desde el rack-scale con Rubin hasta el escritorio con Grace Blackwell y los agentes locales con OpenShell y NemoClaw. Ese enfoque puede resultar atractivo para empresas que quieren una única referencia tecnológica desde el laboratorio hasta producción, pero también obliga a ASUS a demostrar algo que aún está por ver en la práctica: que puede traducir esta amplitud de catálogo en despliegues homogéneos, soporte sólido y una integración real entre piezas muy distintas.
Lo que sí deja claro este anuncio es que la IA empresarial de 2026 ya no se vende como un simple servidor con aceleradores. Se vende como un ecosistema en el que potencia, refrigeración, software, almacenamiento, soberanía del dato y seguridad de los agentes forman parte del mismo paquete. Y ASUS quiere estar en esa conversación.
Preguntas frecuentes
¿Qué ha presentado ASUS en GTC 2026 para inteligencia artificial?
ASUS ha mostrado una nueva gama de infraestructura de IA basada en NVIDIA Vera Rubin, con sistemas rack-scale refrigerados por líquido, servidores híbridos y totalmente líquidos, equipos de escritorio para desarrollo local de IA y soluciones edge y empresariales.
¿Qué es el ASUS AI POD con NVIDIA Vera Rubin NVL72?
Es la propuesta principal de ASUS para factorías de IA a gran escala. Se basa en la plataforma NVIDIA Vera Rubin NVL72 y está diseñada para cargas masivas de entrenamiento e inferencia con refrigeración líquida total.
¿Para qué sirven NVIDIA NemoClaw y OpenShell en los equipos de ASUS?
Sirven para ejecutar agentes autónomos de forma más segura en local. NemoClaw instala OpenShell, que añade aislamiento, control de permisos y protección de privacidad para asistentes siempre activos y otros agentes basados en OpenClaw.
¿ASUS AI Hub está pensado para empresas que no quieren usar la nube?
Sí. ASUS lo plantea como una solución on-premise para asistentes corporativos, RAG e inteligencia documental con mayor soberanía del dato y despliegue local dentro de la organización.
vía: press.asus