Jensen Huang compara OpenClaw con Linux y lanza una advertencia: la IA agente puede disparar aún más la demanda de centros de datos

Jensen Huang lleva meses insistiendo en que la siguiente gran ola de la Inteligencia Artificial no va a venir solo de modelos que responden preguntas, sino de sistemas capaces de actuar por su cuenta, usar herramientas, leer documentación, escribir código y ejecutar tareas completas. Pero esta semana ha ido un paso más allá con una comparación tan llamativa como discutible: según el CEO de NVIDIA, OpenClaw ha alcanzado en apenas tres semanas un nivel de adopción que a Linux le llevó unos 30 años.

La frase, pronunciada durante la Morgan Stanley Technology, Media & Telecom Conference 2026, está hecha para llamar la atención. Y lo consigue. No tanto porque Linux necesite presentación, sino porque equiparar la velocidad de adopción de un proyecto de agentes de IA con la trayectoria histórica del software libre más influyente del mundo suena, como poco, provocador. Sin embargo, más allá del titular, lo interesante no es tanto decidir si Huang exagera como entender por qué ha querido usar precisamente esa comparación y qué mensaje está enviando al mercado.

OpenClaw existe, es real y no es un invento retórico de NVIDIA. Su propio sitio oficial explica que el proyecto, rebautizado como OpenClaw a finales de enero, superó los 100.000 stars en GitHub y llegó a atraer 2 millones de visitantes en una sola semana. Reuters también recogió hace unas semanas que su fundador, Peter Steinberger, se incorporaba a OpenAI para impulsar la nueva generación de agentes personales, mientras el proyecto seguiría vivo como iniciativa open source apoyada por una fundación. Es decir, sí hay un fenómeno detrás del nombre, aunque otra cosa distinta sea dar por buena sin más la equivalencia con Linux.

La comparación con Linux dice más sobre la velocidad de Internet que sobre Linux

Conviene separar los planos. Huang no está diciendo que OpenClaw sea más importante que Linux en términos históricos, técnicos o industriales. Lo que plantea es que el ciclo de adopción del software ha cambiado de manera radical. Y ahí sí toca una tecla real. Linux nació en un mundo sin GitHub, sin distribución viral en redes, sin comunidades globales funcionando a ritmo de tiempo real y, por supuesto, sin la tracción brutal que hoy genera cualquier herramienta conectada a la fiebre de la IA.

Por eso, la comparación debe leerse más como una metáfora del ritmo actual de propagación del software que como una equivalencia técnica. Linux se convirtió con los años en la base de servidores, cloud, Android, supercomputación y una parte enorme de Internet. OpenClaw, en cambio, juega en otro terreno: el de los agentes autónomos de Inteligencia Artificial que prometen hacer cosas por el usuario, no solo responderle. Son ligas distintas, épocas distintas y métricas de adopción muy difíciles de medir con la misma vara.

Dicho eso, Huang no eligió OpenClaw por casualidad. En la transcripción del evento, el directivo lo presenta como uno de los mayores fenómenos del momento y lo utiliza para explicar que el software está entrando en una nueva fase. El viejo prompt de “qué”, “quién” o “cuándo” empieza a dejar paso a órdenes como “crea”, “haz”, “construye” o “escribe”. Es decir, de la consulta se pasa a la acción. Y cuando eso ocurre, el consumo de infraestructura cambia por completo.

El verdadero mensaje de NVIDIA no va sobre OpenClaw, sino sobre computación

Ahí está el fondo de la intervención. Huang no se detiene tanto en el valor simbólico de OpenClaw como en las consecuencias que trae consigo el software agentico para la infraestructura. En esa misma charla explicó que el salto desde la IA generativa básica hacia modelos con más razonamiento ya elevó de forma notable el número de tokens consumidos. Pero, según su propio argumento, el paso hacia agentes que investigan, leen manuales, usan herramientas y trabajan en segundo plano multiplica todavía más esa demanda.

La frase más importante de toda su intervención probablemente no sea la de Linux. Es la que viene después. Huang sostiene que estos agentes consumen órdenes de magnitud más tokens y que funcionan de manera continua, no como una consulta puntual. En otras palabras, ya no se trataría de preguntar algo y recibir una respuesta, sino de tener software trabajando constantemente para el usuario o para la empresa. Eso obliga a repensar qué es realmente un centro de datos.

NVIDIA lleva tiempo empujando la idea del “AI factory”, la fábrica de tokens. Puede sonar a marketing, pero encierra una tesis concreta: los centros de datos del futuro no estarán pensados solo para almacenar datos o atender cargas cloud convencionales, sino para producir tokens de forma rentable y sostenida. Y si la industria termina llenándose de agentes que operan en segundo plano de forma permanente, la presión sobre potencia, memoria, red, refrigeración y energía será mucho mayor de la actual.

No es casualidad que Huang vincule ese discurso con la necesidad de más compute. Tampoco es casualidad que insista en que cada empresa acabará consumiendo muchísimos más tokens que hoy. Desde la perspectiva de NVIDIA, los agentes son la pieza que justifica el siguiente gran salto inversor en infraestructura. Si cada software termina siendo “agentic”, como defendió en el evento, entonces la demanda de aceleradores, sistemas de inferencia y centros de datos preparados para cargas continuas no solo no caerá, sino que podría acelerarse todavía más.

La industria tiene un problema si el software avanza más rápido que la infraestructura

Y ahí es donde la intervención de Huang conecta con una pregunta bastante más incómoda que la simple comparación con Linux. ¿Está preparada la infraestructura para sostener una ola masiva de agentes de IA funcionando de forma continua? A día de hoy, cuesta pensar que sí. El sector ya arrastra tensiones en energía, memoria, almacenamiento, obra civil, plazos de despliegue y capacidad eléctrica. Si además se suma una capa de software que necesita trabajar mucho más tiempo por cada tarea, la presión puede crecer con rapidez.

De hecho, el propio auge de OpenClaw ayuda a ilustrar esa dinámica. No por lo que ya sea hoy, sino por lo que representa: un tipo de software que se instala, se adapta, usa herramientas y convierte la IA en algo más operativo. Incluso su popularidad ha venido acompañada de problemas de seguridad, vulnerabilidades y versiones maliciosas, una señal de que el ecosistema se está moviendo tan deprisa como suele hacerlo cuando algo se vuelve viral en serio.

En ese sentido, la frase de Huang puede sonar excesiva, pero tampoco es una simple ocurrencia. Funciona como una advertencia con forma de eslogan. Lo que NVIDIA intenta explicar a inversores, clientes y desarrolladores es que la IA agente no será solo una mejora incremental sobre los chatbots actuales. Si prende de verdad, cambiará el tipo de software que usa la gente y también el tipo de infraestructura que necesitará el mundo para sostenerlo.

La duda no es ya si OpenClaw puede compararse o no con Linux. La duda de fondo es si la industria energética, los centros de datos y la cadena de suministro de hardware podrán seguir el ritmo de una nueva generación de software que ya no se limita a esperar preguntas, sino que empieza a trabajar sola. Y en ese escenario, la exageración de Huang quizá no busque describir el presente con exactitud, sino preparar al mercado para el tamaño de la factura que podría venir después.

Preguntas frecuentes

¿Qué es OpenClaw y por qué Jensen Huang lo compara con Linux?
OpenClaw es un proyecto open source orientado a agentes personales de Inteligencia Artificial capaces de ejecutar tareas, usar herramientas y operar sobre distintos canales y dispositivos. Huang lo comparó con Linux no para equiparar su importancia histórica, sino para subrayar la velocidad de adopción que puede alcanzar hoy un proyecto de IA.

¿Ha dicho NVIDIA de verdad que OpenClaw superó a Linux en tres semanas?
Sí, Jensen Huang lo afirmó durante la Morgan Stanley Technology, Media & Telecom Conference 2026. Ahora bien, esa comparación debe leerse como una declaración muy llamativa sobre ritmo de adopción, no como una medición universal e indiscutible del impacto técnico de ambos proyectos.

¿Por qué los agentes de IA consumen más recursos que un chatbot tradicional?
Porque no se limitan a responder una consulta. Pueden investigar, razonar, leer documentación, usar herramientas, ejecutar pasos encadenados y trabajar en segundo plano durante más tiempo. Todo eso eleva el número de tokens procesados y, con ello, la demanda de computación en los centros de datos.

¿Qué impacto puede tener la IA agente en los centros de datos y en NVIDIA?
Si este tipo de software se generaliza, la necesidad de potencia de cálculo, memoria, energía y almacenamiento podría crecer aún más. Para NVIDIA, eso refuerza su tesis de que la próxima gran expansión del mercado no dependerá solo de entrenar modelos, sino de ejecutar de forma continua millones de tareas agenticas.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×