Nokia y Hypertec conectan el superordenador Nibi en Canadá: un salto en red, refrigeración y capacidad para investigación en salud, clima e Inteligencia Artificial

El debate sobre la soberanía tecnológica suele centrarse en chips, modelos y talento. Sin embargo, en la práctica, la competitividad científica de un país también se decide en otro lugar menos visible: los centros de cálculo donde se entrenan modelos, se simulan fenómenos físicos y se analizan datos biomédicos a escala. En ese contexto se enmarca el despliegue de Nibi, el superordenador alojado en la University of Waterloo (Ontario, Canadá), cuya infraestructura de red y diseño de centro de datos ha sido impulsada por Nokia y Hypertec Group con el objetivo de reforzar la capacidad de investigación en salud, ciencias del clima, ingeniería e Inteligencia Artificial (IA).

El anuncio se formalizó el 22 de enero de 2026, y sitúa a Nibi como un proyecto con ambición nacional: el sistema se integra en SHARCNET (Shared Hierarchical Academic Research Network), un entorno canadiense de computación de alto rendimiento que da servicio a 19 instituciones académicas y que, por su número de miembros, se considera el mayor consorcio de HPC del país. El objetivo declarado es claro: ofrecer potencia de cálculo para que profesorado, estudiantes, doctorandos y personal investigador puedan ejecutar cargas de trabajo exigentes sin depender de infraestructuras externas, con una previsión de más de 4.000 investigadores al año beneficiándose del recurso.

El giro estratégico: pasar a una interconexión basada en Ethernet

Más allá del “más potencia”, el movimiento relevante está en la arquitectura. La puesta en marcha de Nibi viene acompañada de una decisión técnica que refleja hacia dónde se mueve el HPC en la era de la IA: el cambio a una interconexión basada en Ethernet. Desde SHARCNET, su director de tecnología, John Morton, ha subrayado que el salto a Ethernet, junto con el diseño e integración del sistema, busca garantizar escalabilidad, fiabilidad y rendimiento para una mezcla muy amplia de cargas: desde simulación clásica hasta modelos de IA que castigan red y almacenamiento.

En esta pieza encaja la propuesta de Nokia: la compañía aporta su Data Center Fabric e infraestructura de red IP para el clúster, un tipo de despliegue que, según la propia empresa, constituye su primera implantación en Norteamérica de esta “clase” de red para centros de datos orientados a IA-HPC. Hypertec, por su parte, ha actuado como arquitecto del sistema e integrador principal, con foco en diseño de centro de datos y en tecnologías avanzadas de refrigeración.

Qué hay dentro de Nibi: CPU, GPU, almacenamiento y una red preparada para IA

La foto de Nibi no se explica solo con un número de nodos. En términos de configuración, distintas fuentes del sector describen un sistema construido alrededor de procesadores Intel Xeon 6 y aceleración con NVIDIA H100, además de un subsistema de almacenamiento que supera los 25 petabytes. El clúster está interconectado con Ethernet de 400 Gb/s, un dato significativo porque apunta a un diseño pensado para mover datos con baja latencia y alto caudal en flujos típicos de IA (entrenamiento, inferencia a gran escala, análisis de grandes conjuntos de datos), sin perder compatibilidad con trabajos tradicionales de HPC.

nibi supercomputer serverroom

La propia University of Waterloo había presentado meses antes el proyecto como una renovación profunda de su capacidad de cómputo: Nibi sustituyó al anterior superordenador Graham, y se describió como un sistema con más de 700 nodos y alrededor de 140.000 núcleos CPU, además de nodos con GPU orientados a modelos de IA (incluyendo configuraciones con ocho H100 por nodo) y un almacenamiento flash de gran capacidad para mejorar rendimiento y fiabilidad.

Refrigeración por inmersión y reutilización del calor: cuando el diseño “sostenible” no es solo marketing

Si hay un elemento que convierte a Nibi en noticia para la industria de centros de datos es su enfoque térmico. El despliegue incorpora refrigeración por inmersión (con varios tanques monofásicos) y soluciones de líquido directo a chip para los subsistemas de GPU. En términos energéticos, este tipo de ingeniería persigue reducir el coste de enfriar lo que, en la práctica, es un concentrador de calor continuo.

La narrativa no se queda en el ahorro: una de las piezas más llamativas del proyecto es la reutilización del calor residual para climatizar el Mike and Ophelia Lazaridis Quantum-Nano Centre, un edificio asociado a investigación cuántica en el campus. En otras palabras, parte de la energía que normalmente se desperdicia en forma de calor se reincorpora como servicio útil para el propio complejo universitario.

La dimensión cultural también está presente. Waterloo explicó que el nombre Nibi significa “agua” en anishinaabemowin (ojibwe), y que la denominación se eligió tras consultas con comunidades indígenas locales, alineando el concepto de “agua” con el papel de la refrigeración en la eficiencia del sistema.

Infraestructura “soberana” y efecto arrastre: por qué importan estas piezas

En el comunicado corporativo, Nokia enmarca Nibi como un ejemplo de la capacidad canadiense para “diseñar, desplegar y operar” infraestructura competitiva de investigación en IA con base en conocimiento doméstico. El mensaje es coherente con una tendencia más amplia: los países que aspiran a liderazgo científico necesitan capacidad local para ejecutar cómputo intensivo, no solo para “hacer ciencia”, sino para formar talento y retener proyectos.

Además, el proyecto refuerza la presencia de Nokia en Canadá. La compañía ha vinculado este despliegue con la expansión reciente de su campus de Ottawa (Kanata North Tech Park), una inversión que busca acelerar innovación en redes para IA, conectividad de nueva generación y tecnologías cuánticas. Nokia también destaca su trayectoria en el país desde finales de los años 80 y una plantilla de más de 2.700 empleados a nivel nacional.

Lo que Nibi simboliza para el HPC en 2026

El valor de Nibi no está solo en “ser más rápido”, sino en representar un patrón: IA, red de alto rendimiento basada en Ethernet, almacenamiento masivo y refrigeración líquida avanzada como requisitos de partida. La consecuencia práctica para la comunidad investigadora es obvia: más experimentos, más iteraciones, más proyectos simultáneos. La consecuencia industrial es igual de relevante: la infraestructura del HPC se está pareciendo cada vez más a la de los grandes centros de datos para IA, y viceversa.


Preguntas frecuentes

¿Para qué tipo de investigaciones se usará el superordenador Nibi?

Se ha diseñado para cargas intensivas de computación en salud, ciencias del clima, ingeniería e Inteligencia Artificial, incluyendo simulaciones, analítica avanzada y trabajos acelerados por GPU dentro del ecosistema académico canadiense.

¿Qué aporta una red Ethernet de 400 Gb/s en un superordenador para IA?

Aporta ancho de banda y escalabilidad para mover grandes volúmenes de datos entre nodos (CPU/GPU) y almacenamiento, algo crítico en entrenamiento y análisis masivo. También facilita integrar herramientas y operaciones habituales del mundo de centros de datos.

¿Por qué la refrigeración por inmersión es relevante en HPC e IA?

Porque mejora la eficiencia térmica en sistemas de alta densidad: permite disipar calor de forma más efectiva que el aire, reducir consumo dedicado a refrigeración y, en algunos diseños, reaprovechar calor residual para otros usos del edificio.

¿Qué es SHARCNET y por qué Nibi se integra ahí?

SHARCNET es un consorcio canadiense de computación de alto rendimiento con 19 instituciones. Integrar Nibi en SHARCNET amplía el acceso a recursos de cálculo para investigadores de múltiples universidades, no solo para un campus.

vía: nokia

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×