IBM ha dado un paso significativo en la mejora de sus capacidades de computación en la nube al anunciar la incorporación de las GPUs Nvidia H100 a su plataforma IBM Cloud. Esta actualización permitirá a los clientes acceder a un rendimiento superior para sus cargas de trabajo de inteligencia artificial (IA), tanto en tareas de entrenamiento como de inferencia.
Mejora significativa en el rendimiento
La introducción de las GPUs H100 representa un avance notable respecto a las anteriores Nvidia A100, que IBM había implementado el año pasado. Según la información proporcionada por Nvidia, estos nuevos procesadores gráficos ofrecen un rendimiento de inferencia hasta 30 veces más rápido que sus predecesores.
Variedad de opciones para diferentes necesidades
Además de las potentes H100, IBM Cloud continúa ofreciendo una gama diversa de GPUs para adaptarse a diferentes escalas de proyectos de IA:
- GPUs Nvidia A100: Para cargas de trabajo de IA de alto rendimiento.
- GPUs Nvidia L40S y L4: Diseñadas para tareas de IA a menor escala, como el entrenamiento de modelos pequeños o la implementación de chatbots.
Disponibilidad global y planes futuros
Las nuevas instancias con H100 están disponibles en las regiones multi-zona de IBM en Norteamérica, Latinoamérica, Europa, Japón y Australia. Además, la compañía ha anunciado planes para ofrecer los procesadores de IA Intel Gaudi 3 a través de IBM Cloud a principios de 2025, ampliando aún más sus opciones de hardware especializado.
Posicionamiento en el mercado
A pesar de este avance, es importante señalar que IBM Cloud se encuentra rezagada en comparación con sus principales competidores en la adopción de las GPUs H100. Empresas como Amazon Web Services (AWS), Google, Microsoft y Oracle lanzaron instancias con estas GPUs hace más de un año. Incluso algunas startups especializadas en GPUs en la nube, como CoreWeave y Cirrascale, tuvieron acceso prioritario a esta tecnología.
El futuro de las GPUs en la nube
El mercado de GPUs para IA sigue evolucionando rápidamente. Los principales proveedores de servicios en la nube, incluyendo Oracle, Amazon, Microsoft y Google, ya han anunciado planes para implementar la próxima generación de GPUs Nvidia, conocida como línea Blackwell. Nvidia espera enviar «varios miles de millones de dólares» en GPUs de última generación en el cuarto trimestre de 2024.
Reestructuración en IBM Cloud
En medio de estos avances tecnológicos, se han reportado cambios significativos en la estructura laboral de IBM Cloud. Según informes recientes, la división estaría llevando a cabo un programa de despidos a gran escala, aunque de manera discreta. IBM ha respondido a estas afirmaciones indicando que los ajustes en la fuerza laboral representarían un porcentaje muy bajo de su plantilla global, esperando mantener niveles de empleo similares a los del inicio del año 2024.
La incorporación de las GPUs Nvidia H100 a IBM Cloud marca un hito importante en la estrategia de la compañía para competir en el mercado de servicios de IA en la nube, aunque el impacto real de esta actualización en su posición competitiva está aún por verse.
vía: DCD