En un movimiento audaz hacia el futuro de la computación acelerada y la inteligencia artificial generativa, NVIDIA ha presentado la plataforma GH200 Grace Hopper™, una revolución tecnológica encarnada en el nuevo Superchip Grace Hopper con el primer procesador HBM3e del mundo. Diseñada para abordar las cargas de trabajo de IA generativa más complejas, incluyendo modelos de lenguaje extenso, sistemas de recomendación y bases de datos vectoriales, esta plataforma promete transformar el panorama de la computación.
Una Fusión de Potencia y Capacidad: Configuración Dual para Rendimiento Excepcional
La configuración dual de esta plataforma, que ofrece hasta 3.5 veces más capacidad de memoria y 3 veces más ancho de bandaEl ancho de banda es la capacidad máxima de transferencia d... que su predecesora, consta de un servidor único equipado con 144 núcleos Arm Neoverse, ocho petaflops de rendimiento en IA y 282GB de la última tecnología de memoria HBM3e. Este avance representa un salto significativo en la capacidad de procesamiento y almacenamiento de datos, estableciendo un nuevo estándar en la industria.
Visión de Jensen Huang: Plataformas de Computación Acelerada para la Demanda de IA Generativa
Jensen Huang, fundador y CEO de NVIDIA, destaca la necesidad de plataformas de computación acelerada con necesidades especializadas para satisfacer la creciente demanda de IA generativa. La plataforma GH200 Grace Hopper Superchip cumple con estas exigencias ofreciendo tecnología de memoria excepcional, capacidad para conectar múltiples GPUs y un diseño de servidor fácilmente escalable en todo el centro de datosUn centro de datos o centro de procesamiento de datos (CPD) ....
Conectividad y Memoria de Vanguardia: Superchips Grace Hopper y HBM3e
El Superchip Grace Hopper puede interconectarse con Superchips adicionales mediante NVIDIA NVLink™, facilitando la implementación de los modelos gigantes utilizados en IA generativa. Esta tecnología coherente de alta velocidad permite que la GPU acceda completamente a la memoria de la CPU, ofreciendo 1.2TB de memoria rápida en configuración dual. La memoria HBM3e, un 50% más rápida que la HBM3 actual, proporciona un total de 10TB/seg de ancho de banda combinado, permitiendo que la nueva plataforma ejecute modelos 3.5 veces mayores que la versión anterior y mejore el rendimiento con un ancho de banda de memoria 3 veces más rápido.
Adopción y Disponibilidad: Un Futuro Brillante con Grace Hopper
Fabricantes líderes ya están ofreciendo sistemas basados en el Superchip Grace Hopper anunciado previamente. Para impulsar una adopción amplia de la tecnología, la plataforma Grace Hopper GH200 de próxima generación con HBM3e es completamente compatible con la especificación de servidor NVIDIA MGX™, presentada en COMPUTEX a principios de este año. Con MGX, cualquier fabricante de sistemas puede agregar rápidamente y de forma rentable Grace Hopper en más de 100 variaciones de servidores.
Se espera que los principales fabricantes de sistemas entreguen sistemas basados en la plataforma en el segundo trimestre del año calendario 2024.
Descubre más sobre Grace Hopper en la dirección de SIGGRAPH de Jensen Huang, disponible bajo demanda, abriendo un nuevo capítulo en la historia de la computación acelerada y la IA generativa.