La robótica vive un momento de inflexión: ya no se trata solo de máquinas programadas para repetir una tarea, sino de sistemas capaces de ver, razonar y actuar en entornos reales con una flexibilidad cada vez más cercana a la humana. En el marco de CES 2026, NVIDIA ha presentado un paquete de modelos abiertos, frameworks y nuevas piezas de infraestructura orientadas a lo que la compañía denomina “Inteligencia Artificial física”, junto a robots y máquinas autónomas de socios como Boston Dynamics, Caterpillar, Franka Robotics, Humanoid, LG Electronics o NEURA Robotics.
El anuncio no es menor por una razón práctica: construir robots “generalistas-especialistas” —capaces de aprender múltiples tareas y adaptarse— exige hoy un volumen de datos, simulación y entrenamiento que suele quedar fuera del alcance de muchos equipos. La estrategia de NVIDIA apunta a rebajar esa barrera liberando modelos base y herramientas que permitan a los desarrolladores saltarse parte del preentrenamiento y concentrarse en el ajuste fino, la evaluación y la integración en hardware.
Modelos abiertos para que los robots “entiendan” el mundo
En el núcleo del lanzamiento están los nuevos modelos NVIDIA Cosmos e Isaac GR00T, concebidos para acelerar el aprendizaje y el razonamiento robótico. NVIDIA ha anunciado Cosmos Transfer 2.5 y Cosmos Predict 2.5 como modelos de mundo “totalmente personalizables” para generar datos sintéticos físicamente coherentes y evaluar políticas en simulación. A ello se suma Cosmos Reason 2, un modelo de razonamiento visión-lenguaje para que las máquinas “vean, comprendan y actúen” en el mundo físico.
La pieza más llamativa para humanoides es NVIDIA Isaac GR00T N1.6, descrito como un modelo de tipo VLA (visión-lenguaje-acción) orientado al control de cuerpo completo y apoyado en Cosmos Reason para mejorar el razonamiento contextual. Según NVIDIA, varios fabricantes ya están utilizando estos flujos de trabajo para simular, entrenar y validar nuevos comportamientos antes de llevarlos al robot físico.
El enfoque, en la práctica, persigue un objetivo: reducir el coste de los “robots de una sola función” —caros y difíciles de reprogramar— y empujar hacia máquinas más versátiles, capaces de incorporar nuevas habilidades con menos fricción.
Del laboratorio a la industria: evaluación, orquestación y ecosistema abierto
La compañía también ha puesto el foco en un problema muy conocido por cualquier equipo de robótica: el pipeline suele estar fragmentado entre simulación, generación de datos, entrenamiento, pruebas y despliegue. Para atacar esa complejidad, NVIDIA ha anunciado herramientas de código abierto en GitHub.
Por un lado, Isaac Lab-Arena busca estandarizar la evaluación y el benchmarking de políticas robóticas en simulación, conectándose con benchmarks existentes y facilitando pruebas a escala antes de desplegar en hardware real.
Por otro, OSMO se presenta como un framework “cloud-native” de orquestación que pretende unificar flujos como generación de datos sintéticos, entrenamiento y pruebas software-in-the-loop en distintos entornos de cómputo, desde estaciones de trabajo a infraestructuras mixtas de nube. En otras palabras: menos pegamento artesanal, más “centro de mando” para ejecutar ciclos de desarrollo completos.
En paralelo, NVIDIA ha reforzado el componente comunitario con una integración con Hugging Face para llevar modelos y librerías de Isaac al ecosistema LeRobot, uno de los marcos open source que más tracción está ganando. La idea es que el desarrollador pueda afinar y evaluar políticas con menos pasos, dentro de un flujo más integrado.
Hardware para el “edge”: Jetson T4000 y el salto a Blackwell en robótica
Si el software y los modelos ponen el cerebro, el cuerpo necesita músculo… y eficiencia energética. NVIDIA ha comunicado que el módulo Jetson T4000, basado en arquitectura Blackwell, ya está disponible, y lo posiciona como una vía de actualización para quienes vienen de Jetson Orin en robótica y autonomía. En el anuncio, la compañía subraya un avance de hasta 4× en eficiencia energética y cómputo de Inteligencia Artificial para este segmento.
En documentación técnica posterior, NVIDIA describe el T4000 con hasta 1.200 FP4 TFLOPs, 64 GB de memoria y un sobre de potencia configurable entre 40 y 70 W, orientado a escenarios donde la energía y la refrigeración son limitantes (robótica industrial, infraestructura inteligente, automatización).
La hoja de ruta se completa con NVIDIA IGX Thor, previsto “a finales de este mes” según el comunicado, como extensión de computación de alto rendimiento al borde industrial, con soporte de software empresarial y foco en seguridad funcional.
Robots “para cada industria”: de fábricas y minas al hogar
El listado de socios muestra hacia dónde apunta la robótica en 2026: desde humanoides y manipuladores móviles a máquinas autónomas para sectores pesados. NVIDIA sitúa a actores como Caterpillar en la ecuación para llevar autonomía e Inteligencia Artificial avanzada a equipos de construcción y minería, mientras que otros nombres del ecosistema presentan robots orientados a logística, industria o tareas domésticas.
Además, la compañía incluye ejemplos de adopción en áreas especialmente sensibles, como el entorno sanitario, donde la promesa de la robótica no es solo automatizar, sino asistir con precisión y contexto en tiempo real. En conjunto, el mensaje es claro: el salto no llegará únicamente por un robot “estrella”, sino por la combinación de modelos, simulación, evaluación y hardware eficiente que permita iterar rápido y desplegar con garantías.
Preguntas frecuentes
¿Qué significa “Inteligencia Artificial física” y en qué se diferencia de un chatbot?
Se refiere a modelos y sistemas que, además de entender lenguaje, pueden interpretar el entorno (visión), razonar sobre lo que ocurre y ejecutar acciones en el mundo físico mediante robots y sensores, normalmente con apoyo de simulación y datos sintéticos.
¿Qué aporta un modelo VLA como Isaac GR00T frente a un LLM tradicional?
Un VLA está diseñado para conectar percepción (visión), instrucciones (lenguaje) y ejecución (acción), es decir, traducir lo que “ve” y “entiende” el robot en movimientos y control físico, especialmente relevante en robots humanoides.
¿Para qué casos tiene sentido Jetson T4000 en robótica y edge?
Encaja en robots y sistemas autónomos que necesitan inferencia de modelos en local con restricciones de energía y térmicas (automatización industrial, robots móviles, visión en tiempo real), donde el despliegue en nube no es viable por latencia, conectividad o privacidad.
¿Cómo ayuda la integración con Hugging Face LeRobot a equipos pequeños y startups?
Facilita reutilizar herramientas, entornos y flujos de evaluación ya integrados en un ecosistema open source, reduciendo tiempo de configuración y haciendo más accesible la experimentación y el benchmarking de políticas robóticas.
vía: nvidianews.nvidia