NVIDIA compra SchedMD, la empresa detrás de Slurm, para reforzar el software “invisible” que mueve la IA y la supercomputación

NVIDIA ha anunciado la adquisición de SchedMD, conocida por ser el principal desarrollador de Slurm, uno de los sistemas de gestión de cargas de trabajo (workload manager) más utilizados en HPC y, cada vez más, en clústeres de IA. El mensaje oficial busca despejar, desde el primer minuto, la gran pregunta que siempre aparece cuando un gigante compra una pieza crítica del ecosistema: Slurm seguirá siendo open source y “vendor-neutral” (neutral respecto a proveedores), manteniendo su disponibilidad para la comunidad y para entornos heterogéneos.

Slurm es el tipo de software que rara vez sale en las fotos, pero sin el que casi nada funciona en un clúster moderno. En la práctica, es el “director de orquesta” que decide qué trabajo se ejecuta, cuándo, dónde y con qué recursos (GPUs, CPUs, memoria, nodos, colas, prioridades, políticas…). En un mundo donde entrenar y servir modelos implica miles de tareas paralelas, una mala planificación no solo encarece: puede convertir un centro de computación en un atasco permanente.

Por qué esta compra importa (más de lo que parece)

NVIDIA enmarca la operación como un paso para fortalecer el ecosistema open source y acelerar la innovación en investigación y empresa. El argumento es directo: a medida que los clústeres crecen y se vuelven más complejos, la eficiencia de utilización (y la calidad de las políticas de scheduling) pasa a ser un factor crítico.

En su comunicado, la compañía subraya además un dato revelador sobre la posición de Slurm en la élite del cómputo: afirma que se utiliza en más de la mitad de los sistemas del top 10 y del top 100 del ranking TOP500.
Ese tipo de presencia explica por qué Slurm es, para muchos, infraestructura estratégica: no es “una herramienta más”, es un estándar de facto en gran parte del HPC.

Qué gana NVIDIA… y qué se juega

Desde el punto de vista industrial, el encaje es evidente:

  • IA a escala: los grandes laboratorios y plataformas de IA no solo compiten por chips; compiten por rendimiento real, por tiempo de entrenamiento, por eficiencia de inferencia y por aprovechamiento del clúster. El scheduler influye en todo eso.
  • Optimización del stack: NVIDIA lleva años ampliando su propuesta más allá del silicio. Comprar (y prometer seguir manteniendo) una pieza tan extendida como Slurm es otra forma de empujar un “stack” completo, desde el hardware hasta la operación diaria.
  • Credibilidad con el mundo HPC: SchedMD no es un nombre de moda; es una empresa con recorrido en un área muy exigente. Según heise, SchedMD se fundó en 2010, tiene sede en Utah y ronda los 40 empleados, con una base de clientes amplia en entornos científicos y empresariales.

Pero también hay un “lado B” inevitable: cuando una pieza crítica pasa a manos de un actor dominante en aceleración, el ecosistema se vuelve más sensible a dos riesgos percibidos:

  1. Gobernanza y neutralidad real: que un software sea open source no garantiza por sí solo que su hoja de ruta permanezca equilibrada entre proveedores. NVIDIA insiste en el carácter “vendor-neutral”, pero el mercado observará si esa neutralidad se traduce en decisiones técnicas y comunitarias sostenidas en el tiempo.
  2. Confianza operativa: universidades, centros nacionales, clouds, integradores y empresas con clústeres heterogéneos dependen de Slurm como un componente central. Cualquier señal de sesgo —aunque sea solo por prioridades de desarrollo— puede generar fricción.

Qué dice SchedMD y qué ocurrirá con los clientes

En el anuncio, Danny Auble, CEO de SchedMD, presenta la compra como una validación de la importancia de Slurm en los entornos más exigentes y asegura continuidad del modelo: Slurm seguirá siendo open source y NVIDIA aportará inversión y capacidad para evolucionarlo con las demandas de la nueva generación de IA y supercomputación.

NVIDIA también afirma que continuará ofreciendo soporte, formación y desarrollo para la base de clientes de SchedMD (que incluye proveedores cloud, fabricantes, compañías de IA y laboratorios de investigación, entre otros).

La lectura “tech”: el cuello de botella ya no siempre es la GPU

La narrativa habitual en IA se centra en cuántas GPUs hay disponibles. La realidad de 2025–2026 es más incómoda: muchos equipos descubren que, incluso con hardware de primer nivel, el rendimiento percibido depende de la “fontanería” del clúster: colas mal diseñadas, políticas de prioridad pobres, fragmentación de recursos, tiempos muertos por mala asignación, o una convivencia difícil entre training e inferencia.

Por eso esta adquisición no es solo corporativa: es un recordatorio de que el futuro de la IA a escala se decide también en capas menos visibles. Y Slurm —con su enorme implantación— es una de esas capas.


Preguntas frecuentes

¿Qué es Slurm y para qué se usa en IA y supercomputación?
Slurm es un gestor de colas y recursos para clústeres: asigna GPUs/CPUs, programa trabajos, aplica políticas de prioridad y ayuda a maximizar el uso del sistema en HPC y cargas de IA.

¿Slurm dejará de ser open source tras la compra de NVIDIA?
NVIDIA afirma que seguirá desarrollándolo y distribuyéndolo como software open source y “vendor-neutral”.

¿Por qué un scheduler puede afectar al rendimiento de un clúster con GPUs potentes?
Porque decide cómo se reparten los recursos y evita (o provoca) tiempos muertos, fragmentación, colas ineficientes y conflictos entre cargas distintas (por ejemplo, entrenamiento y servicios de inferencia).

¿Qué cambia para organizaciones que usan clústeres heterogéneos (distinto hardware)?
En principio, nada inmediato: NVIDIA declara compatibilidad con entornos diversos. La industria estará atenta a la evolución de la hoja de ruta y a cómo se gestiona la neutralidad en la práctica.

vía: blogs.nvidia

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×