Cisco sube la apuesta por las redes de IA con Silicon One G300 y switches de 102,4 Tbps

La carrera por escalar centros de datos para Inteligencia Artificial ya no se decide solo por quién consigue más GPUs, sino por quién logra que trabajen “a pleno rendimiento” sin quedarse esperando a la red. En ese punto, el cuello de botella deja de ser la potencia de cálculo y pasa a ser el movimiento de datos: latencias, congestión, pérdidas de paquetes y una operativa cada vez más compleja a medida que los despliegues se multiplican más allá de los hiperescalares.

En Cisco Live EMEA (Ámsterdam), Cisco presentó una nueva tanda de piezas pensadas para esa “segunda fase” de la IA en el centro de datos: el Silicon One G300, un chip de conmutación de 102,4 Tbps, nuevos sistemas Cisco N9000 y Cisco 8000 basados en ese silicio, ópticas de alta densidad para enlaces de próxima generación, y una evolución de su capa de operaciones con Nexus One, que busca simplificar el despliegue y la gestión de fabrics para IA tanto on-premise como en la nube.

La red ya es parte del “compute”

El mensaje de Cisco se alinea con una idea que hoy repiten casi todos los grandes operadores de infraestructura: en entrenamiento e inferencia a gran escala, la red deja de ser un accesorio y se convierte en un componente del propio rendimiento del clúster. Si los datos no llegan a tiempo, la GPU no produce; y si la GPU no produce, la factura por hora se dispara.

Cisco pone números a esa tensión: su propuesta de “Intelligent Collective Networking” —integrada en Silicon One G300— promete mejoras del 33 % en utilización de red y una reducción del 28 % en el tiempo de finalización de trabajos frente a escenarios simulados con selección de rutas no optimizada. Traducido a términos de negocio: más trabajo completado por el mismo parque de aceleradores y, por tanto, más productividad por GPU-hora.

¿Qué es Silicon One G300 y qué cambia?

Silicon One G300 se describe como un silicio de conmutación diseñado para clústeres masivos y distribuidos, con tres obsesiones: rendimiento, seguridad y fiabilidad. Cisco destaca varios elementos que buscan atacar los problemas clásicos del tráfico de IA (bursty, sensible a microcortes y muy penalizado por pérdidas):

  • Buffer compartido de gran capacidad para absorber picos sin provocar drops que “atasquen” jobs.
  • Balanceo basado en rutas para mejorar el reparto de tráfico y reaccionar mejor ante fallos de enlace.
  • Telemetría proactiva para que operación no vuele a ciegas cuando el fabric crece.
  • Programabilidad para evolucionar funcionalidades tras el despliegue, protegiendo inversiones.
  • Seguridad integrada en hardware para aplicar controles “a velocidad de línea” sin sacrificar throughput.

En conjunto, el enfoque intenta responder a un punto crítico: a medida que la IA se “democratiza” y llega a neoclouds, nubes soberanas, operadores y empresas, la red debe escalar sin exigir una plantilla de especialistas imposible de encontrar.

Nuevos N9000 y 8000: del silicio al sistema (y al rack)

Cisco acompaña el anuncio con nuevos sistemas N9000 y 8000 (fijos y modulares) basados en G300, diseñados para las exigencias térmicas y eléctricas de estos entornos. Aquí aparece una de las claves más llamativas: la opción de diseño 100 % refrigerado por líquido, que Cisco vincula a una mejora de eficiencia energética “cercana al 70 %” y a una densidad de ancho de banda que permitiría concentrar en un solo sistema lo que antes requería varios equipos de generación anterior.

La lectura es pragmática: cuando un clúster empieza a medir potencia en megavatios y a hablar de racks densos, la refrigeración deja de ser un tema de “facility” y se convierte en parte del diseño de la red.

Ópticas para la era 1,6T y el ahorro de vatios

La conectividad también se mueve. Cisco anunció dos líneas clave:

  • Ópticas OSFP de 1,6T, orientadas a enlaces switch-NIC de 1,6T y a conectividad switch-servidor con opciones 1,6T/800G/400G/200G.
  • Ópticas LPO (Linear Pluggable Optics) de 800G, con la promesa de reducir un 50 % el consumo del módulo frente a ópticas retimed. Cisco añade un efecto colateral relevante: al combinar LPO con los nuevos sistemas, se podría recortar hasta un 30 % el consumo total del switch, mejorando fiabilidad y sostenibilidad.

En un mercado donde cada vatio cuenta —por coste y por límites de suministro eléctrico—, estas cifras son más que marketing: son una palanca directa sobre el coste total de operación.

Nexus One y “AgenticOps”: menos fricción para los equipos de IT

Más allá del hierro, Cisco empuja una idea: no se puede escalar IA si cada ampliación de fabric es un proyecto artesanal. Por eso sitúa Nexus One como un plano de gestión unificado que conecta silicio, sistemas, ópticas, software y automatización bajo una misma experiencia operativa.

Entre las novedades, Cisco menciona:

  • Unified Fabric para desplegar y adaptar redes incluso en múltiples sedes, con automatización vía API.
  • Observabilidad “job-aware”: correlacionar telemetría de red con comportamiento de cargas de IA.
  • Integración nativa con Splunk prevista para marzo, con un ángulo especialmente relevante para entornos soberanos: analizar telemetría “donde vive el dato”, sin tener que moverla fuera.

Además, Cisco introduce AI Canvas como interfaz para “AgenticOps” en redes de centro de datos: un enfoque de troubleshooting guiado, con conversaciones “human-in-the-loop” que traduzcan problemas complejos en acciones concretas.

Una estrategia que apunta más allá del hiperescala

Cisco insiste en que esta generación está pensada para un mapa de clientes más amplio: hiperescalares, neoclouds, nubes soberanas, operadores y empresas. Y para reforzar el relato, acompaña el anuncio con un listado de alianzas y validaciones dentro del ecosistema (AMD, Intel, NVIDIA, NetApp, DDN, VAST, entre otros), subrayando que en IA el valor no está en una pieza aislada, sino en el conjunto: red, cómputo, almacenamiento y operaciones.

Cisco afirma que G300, los sistemas basados en G300 y las nuevas ópticas se enviarán este año, marcando el inicio de una etapa donde el “backend networking” de IA se convierte en un producto estratégico por derecho propio.


Preguntas frecuentes

¿Qué implica que un chip de switching sea de 102,4 Tbps?
Que el silicio puede conmutar un volumen masivo de tráfico dentro del switch, habilitando más puertos de alta velocidad y mayor densidad de ancho de banda para fabrics de IA a gran escala.

¿Por qué la refrigeración líquida empieza a aparecer también en equipos de red?
Porque la densidad y el consumo suben con el salto a enlaces de 800G y 1,6T. Refrigeración líquida permite más rendimiento sostenido y puede mejorar la eficiencia energética en despliegues muy exigentes.

¿Qué es LPO 800G y por qué importa en centros de datos para IA?
LPO (Linear Pluggable Optics) reduce la electrónica interna frente a ópticas retimed, bajando el consumo del módulo. En redes de miles de enlaces, ese ahorro se convierte en menos calor, menos vatios y más margen operativo.

¿Qué aporta una gestión unificada como Nexus One en un fabric de IA?
Reduce complejidad al desplegar y operar, mejora visibilidad de extremo a extremo (de red a GPU) y facilita automatización y troubleshooting cuando el entorno crece a múltiples sedes o requiere cumplimiento estricto por soberanía del dato.

vía: newsroom.cisco

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×