La revolución de la inteligencia artificial no solo se mide en la potencia de los chips que entrenan modelos cada vez más grandes. También se mide en la capacidad de conectar miles de GPUs como si funcionaran como un único cerebro digital. En ese punto crítico, Nvidia ha dado un paso firme: integrar la luz como medio de comunicación en sus plataformas de centros de datos. Su hoja de ruta prevé que, a partir de 2026, la fotónica de silicio y las ópticas coempaquetadas (CPO, por sus siglas en inglés) pasen de ser una innovación prometedora a convertirse en un requisito estructural para la nueva generación de infraestructuras de IA.
La presentación de Nvidia en la conferencia Hot Chips de 2025 dejó clara su apuesta: los futuros switches Quantum-X e InfiniBand y la plataforma Spectrum-X Photonics para Ethernet marcarán el inicio de una nueva era en la interconexión de GPUs, donde los cables de cobre serán insuficientes y la luz será la que garantice velocidad, eficiencia y fiabilidad.
El reto de interconectar miles de GPUs
En los grandes clústeres de IA, miles de GPUs deben comportarse como si fueran una sola máquina. Esto implica que los datos circulen entre ellas con la mínima latencia posible y con una tasa de transferencia que escale a niveles nunca vistos.
El modelo tradicional, basado en cables de cobre y módulos ópticos enchufables, se ha vuelto insostenible. A velocidades de 800 Gb/s, las pérdidas eléctricas alcanzan hasta 22 decibelios en canales de 200 Gb/s, lo que obliga a emplear circuitos de compensación que disparan el consumo por puerto hasta 30 W, generando calor, complejidad y posibles fallos.
Con CPO, el enfoque cambia: el motor óptico se integra directamente junto al ASIC del switch. De esta forma, la señal se convierte en luz casi de inmediato, reduciendo las pérdidas a solo 4 decibelios y bajando el consumo por puerto a 9 W.
La diferencia es radical: Nvidia estima que con CPO se logra una eficiencia energética 3,5 veces mayor, una integridad de señal 64 veces mejor, una resiliencia 10 veces superior y hasta un 30% de despliegue más rápido, gracias a una arquitectura más sencilla de montar y mantener.
De los módulos enchufables al silicio fotónico
Nvidia no camina sola en esta transición. Su hoja de ruta sigue de cerca la evolución del programa COUPE de TSMC, que desarrolla motores fotónicos compactos universales.
La estrategia se desplegará en tres fases:
- Primera generación (2026): motor óptico para conectores OSFP con 1,6 Tb/s de transferencia y menor consumo.
- Segunda generación: integración en encapsulados CoWoS con ópticas coempaquetadas, alcanzando 6,4 Tb/s a nivel de placa base.
- Tercera generación: objetivo de 12,8 Tb/s dentro de los propios procesadores, con menores niveles de latencia y consumo.
Esto abre la puerta a una comunicación interna entre chips prácticamente a la velocidad de la luz, un salto imprescindible para la IA generativa y los futuros modelos multimodales.
Quantum-X e InfiniBand: la apuesta por la superconectividad
El primer gran lanzamiento llegará con los switches Quantum-X InfiniBand, previstos para principios de 2026.
Cada uno de estos equipos entregará un throughput de 115 Tb/s, con 144 puertos a 800 Gb/s cada uno. Incluirán un ASIC capaz de 14,4 TFLOPS de procesamiento en red, utilizando la cuarta generación del protocolo SHARP de Nvidia, que acelera las operaciones colectivas reduciendo la latencia. Estos switches estarán refrigerados por líquido, una señal más de que la densidad de potencia en los centros de datos no deja de crecer.
Spectrum-X Photonics: Ethernet con esteroides
A partir de la segunda mitad de 2026, Nvidia desplegará la plataforma Spectrum-X Photonics para Ethernet, basada en el chip Spectrum-6 ASIC.

Se presentarán dos modelos principales:
- SN6810: con 102,4 Tb/s de ancho de banda y 128 puertos a 800 Gb/s.
- SN6800: escalando hasta 409,6 Tb/s con 512 puertos a la misma velocidad.
Ambos sistemas usarán refrigeración líquida y estarán preparados para clústeres de IA de escala masiva.
Implicaciones para los centros de datos de IA
El movimiento hacia la fotónica de silicio no es opcional, recalca Nvidia. La magnitud de los clústeres de IA, que ya se cuentan por decenas de miles de GPUs trabajando en paralelo, hace inviable mantener arquitecturas basadas en cobre y módulos enchufables.
Los nuevos switches con CPO eliminarán miles de componentes discretos, simplificarán la instalación y el mantenimiento, y reducirán el consumo energético por conexión. En la práctica, esto significa menores tiempos de activación de los clústeres, más fiabilidad y mayor sostenibilidad en centros de datos que ya compiten por electricidad y recursos de refrigeración en todo el mundo.
La competencia también se mueve
Nvidia no es la única que ha identificado este cambio estructural. AMD, uno de sus principales rivales, adquirió la startup Enosemi, especializada en fotónica integrada, con el objetivo de no quedarse atrás en esta carrera.
La transición hacia la fotónica marca un punto de inflexión: la competencia entre fabricantes ya no solo se juega en los núcleos de las GPUs o en el software, sino en la eficiencia y escalabilidad de las interconexiones que mantienen unidos a estos gigantescos cerebros artificiales.
Una visión de futuro: IA a la velocidad de la luz
Con el auge de la IA generativa, los modelos multimodales y la promesa de sistemas que integren visión, texto, audio y razonamiento en tiempo real, la necesidad de clústeres ultraeficientes será más crítica que nunca.
La apuesta de Nvidia por la fotónica de silicio y las ópticas coempaquetadas no es solo una mejora técnica: es una condición de supervivencia para mantener el liderazgo en un mercado de centros de datos de IA que superará el billón de dólares en la próxima década.
La conclusión es clara: en el futuro de la inteligencia artificial, la luz no solo iluminará el camino, sino que también será el medio por el que viajarán los datos que sostienen el conocimiento digital.
Preguntas frecuentes (FAQs)
1. ¿Qué son las ópticas coempaquetadas (CPO)?
Son motores ópticos integrados directamente junto al chip de red (ASIC), que convierten las señales eléctricas en luz casi de inmediato, reduciendo pérdidas, consumo y complejidad en comparación con los módulos enchufables tradicionales.
2. ¿Por qué Nvidia apuesta por la fotónica en sus centros de datos?
Porque los clústeres de IA requieren interconectar miles de GPUs a velocidades extremas. El cobre es insuficiente a esas velocidades y distancias, mientras que la fotónica de silicio garantiza baja latencia y alta eficiencia energética.
3. ¿Qué mejoras ofrecen los CPO frente a los módulos ópticos enchufables?
Hasta 3,5 veces más eficiencia energética, 64 veces mejor integridad de señal, 10 veces más resiliencia y un despliegue un 30% más rápido.
4. ¿Qué rivales siguen un camino similar al de Nvidia?
AMD, que adquirió la startup Enosemi para avanzar en soluciones de fotónica integrada, además de otras compañías que investigan tecnologías ópticas para centros de datos a gran escala.