NVIDIA ha anunciado en el GTC el lanzamiento de sus nuevos superordenadores de inteligencia artificial personales, DGX Spark y DGX Station, diseñados para poner la potencia de la IA avanzada directamente en manos de desarrolladores, investigadores, científicos de datos y estudiantes. Ambos sistemas están impulsados por la plataforma NVIDIA Grace Blackwell y estarán disponibles a través de fabricantes líderes como ASUS, Dell Technologies, HP y Lenovo.
La inteligencia artificial, ahora también desde el escritorio
El DGX Spark, anteriormente conocido como Project DIGITS, es presentado como el superordenador de IA más pequeño del mundo. Este equipo permitirá a millones de profesionales y estudiantes trabajar con modelos de IA generativa y física de forma local, sin necesidad de recurrir exclusivamente a la nube. El sistema está equipado con el superchip NVIDIA GB10 Grace Blackwell, que incluye núcleos Tensor de quinta generación y soporte FP4, alcanzando hasta 1.000 billones de operaciones por segundo para procesos de ajuste fino e inferencia con los modelos más avanzados de IA.
Gracias a la tecnología NVLink-C2C, este superchip ofrece un modelo de memoria coherente CPU+GPU con un ancho de banda cinco veces superior al del PCIe de quinta generación, optimizando así el rendimiento para cargas de trabajo intensivas en memoria.
DGX Station: rendimiento de centro de datos en formato desktop
Por su parte, el DGX Station incorpora el nuevo superchip NVIDIA GB300 Grace Blackwell Ultra, ofreciendo un espacio de memoria coherente de 784 GB, ideal para el entrenamiento e inferencia a gran escala. Este sistema también integra la tarjeta de red NVIDIA ConnectX-8 SuperNIC, capaz de alcanzar hasta 800 Gb/s, lo que permite conectar múltiples estaciones DGX y gestionar transferencias de datos de gran volumen para cargas de trabajo de IA avanzadas.
DGX Station combina todo esto con la plataforma NVIDIA CUDA-X AI y ofrece acceso a los microservicios NVIDIA NIM™ incluidos en la suite empresarial NVIDIA AI Enterprise, facilitando la implementación de modelos de inferencia con soporte especializado.
Integración con la nube y disponibilidad
Los usuarios podrán trasladar fácilmente sus modelos desde estos dispositivos a la plataforma DGX Cloud o a cualquier infraestructura en la nube o centro de datos, sin necesidad de grandes cambios en el código.
Las reservas para los sistemas DGX Spark ya están abiertas a través de la web oficial de NVIDIA. Por su parte, el DGX Station estará disponible a lo largo del año de la mano de fabricantes como ASUS, BOXX, Dell, HP, Lambda y Supermicro.
Este movimiento confirma el objetivo de NVIDIA de democratizar el acceso a la computación de IA a gran escala, permitiendo que la innovación y el desarrollo de modelos avanzados también puedan realizarse desde entornos de escritorio, sin depender únicamente de infraestructuras remotas.
vía: Nvidia