MediaTek y el nuevo “campo de batalla” de la IA: cuando el rendimiento depende del sistema, no del chip

Durante años, buena parte del relato tecnológico se explicó con una métrica casi obsesiva: más transistores, más potencia, más velocidad. Pero ese guion se está agotando. En la era de la Inteligencia Artificial —y, sobre todo, en la era de la IA que vive en centros de datos— el rendimiento ya no depende únicamente de “un chip mejor”, sino de cómo encaja todo el conjunto: interconexiones, empaquetado, consumo energético, latencia, fiabilidad de señal y, en última instancia, la eficiencia del sistema completo.

Ese giro se percibe con claridad en los grandes foros de ingeniería, donde se cuecen las decisiones técnicas que luego terminan impactando en el precio de la nube, en la escalabilidad de los modelos y en la competitividad de los proveedores. Un buen ejemplo llega desde ISSCC (International Solid-State Circuits Conference), el congreso de referencia de la IEEE Solid-State Circuits Society, y uno de los escenarios donde se marcan tendencias reales, más allá del marketing.

Un premio que habla de un problema mayor: mover datos ya es tan crítico como “calcular”

MediaTek ha sido reconocida con el ISSCC Anantha P. Chandrakasan Distinguished Technical Paper Award gracias a un trabajo centrado en un componente que rara vez acapara titulares fuera del círculo técnico: un transceptor PAM4 basado en DSP capaz de operar a 212,5 Gb/s, fabricado en tecnología FinFET de 4 nm. El dato, por sí solo, suena a “otro récord”. Pero el interés de fondo es más relevante: en los centros de datos modernos, el cuello de botella no siempre está en la GPU o la CPU, sino en la capacidad del sistema para mover datos de forma eficiente, fiable y sostenible.

En redes de alta velocidad, cada salto generacional dispara la complejidad: mantener integridad de señal a más de 200 Gb/s por carril exige diseño de circuitos, técnicas de calibración, control de jitter y una parte importante de procesamiento digital para corregir distorsiones del canal. MediaTek explica que su propuesta combina un transmisor basado en DAC y un receptor basado en ADC, apoyados en DSP para ecualización, además de una arquitectura de PLL por carril que permite un reloj más flexible.

En términos prácticos, esto se traduce en algo que los operadores de infra entienden al instante: mejores enlaces en condiciones difíciles, menos margen para errores, y más posibilidades de empujar capacidades sin disparar consumo ni convertir la depuración de señal en una pesadilla.

Por qué 212,5 Gb/s importa en la vida real (y no solo en un paper)

En los centros de datos, cada avance en SerDes/transceptores termina impactando en tres variables que mandan más que cualquier eslogan:

  1. Capacidad y densidad: más velocidad por carril facilita enlaces más “gordos” sin multiplicar el número de líneas físicas y componentes.
  2. Coste y energía: mover el mismo volumen de datos con menos recursos físicos y menos pérdidas reduce coste operativo, especialmente a escala.
  3. Fiabilidad: cuando se estira el canal (distancias, conectores, backplanes, pérdidas), la diferencia entre “funciona en laboratorio” y “funciona en producción” es el mundo real.

El propio trabajo premiado pone el foco en la robustez ante canales con pérdidas muy elevadas (por encima de 50 dB) y en una tasa de error (BER) de 2,5e-6, un tipo de cifra que no se usa para adornar: se usa porque determina si una arquitectura es viable cuando se sale del entorno ideal.

El mensaje de fondo: la era del “chip milagro” se enfría

Lo interesante de este tipo de hitos es lo que revelan indirectamente: el sector está aceptando que la “victoria” en IA no es únicamente una cuestión de fabricar el chip más potente, sino de optimizar el sistema completo, desde el silicio hasta el rack y la red.

En la práctica, esto empuja a un escenario donde el valor se reparte entre más capas:

  • Interconexión (dentro del servidor y entre servidores): cada vez más determinante.
  • Arquitectura y empaquetado: más allá del nodo de fabricación, importa cómo se integra y se comunica todo.
  • Software y ajuste fino: incluso el mejor hardware pierde valor si el sistema no lo aprovecha bien.
  • Eficiencia energética: no como “bonus”, sino como requisito de continuidad del negocio.

Es, en cierto modo, una madurez forzada. Cuando los despliegues de IA crecen, el desperdicio se vuelve insoportable: una pequeña ineficiencia por aquí, una latencia por allá, un enlace que no escala… y de repente la factura eléctrica y el coste por operación se convierten en el verdadero juez.

Infraestructura de IA: el desafío ya no es solo entrenar, es sostener

El boom de la IA ha puesto el foco mediático en GPUs, pero la vida diaria de la infraestructura es menos cinematográfica y más constante: inferencia, streaming de datos, almacenamiento, redes internas, conectividad y un largo etcétera. Para que una plataforma aguante cargas reales —y para que no se rompa en costes— necesita que todos los eslabones estén a la altura.

En ese sentido, que un premio en ISSCC recaiga en una pieza de conectividad de este calibre no es una rareza. Es una señal. La industria está poniendo el dinero (y el talento) donde duele: en los componentes que evitan que el sistema “se ahogue” aunque el chip sea extraordinario.

Y, si se mira la foto completa, el debate no va de una marca contra otra. Va de un cambio de prioridades: la nueva frontera es la eficiencia a nivel de sistema, porque el futuro de la IA se juega tanto en el cómputo como en la capacidad de mover datos sin que el gasto energético y la complejidad operativa se disparen.


Preguntas frecuentes

¿Qué es un transceptor PAM4 y por qué es clave en redes de centros de datos?
PAM4 es una modulación que permite transmitir más bits por símbolo que esquemas anteriores, aumentando la velocidad por carril. En centros de datos, esto ayuda a escalar enlaces de red sin multiplicar en exceso el número de líneas físicas.

¿Qué significa operar a 212,5 Gb/s en un transceptor?
Implica trabajar con velocidades extremadamente altas por carril, donde la integridad de señal se vuelve crítica. A esas tasas, pequeñas pérdidas o interferencias pueden degradar la comunicación, por lo que se requieren técnicas avanzadas de diseño y corrección.

¿Qué aporta el DSP en un transceptor de alta velocidad?
El procesamiento digital de señal permite ecualizar y compensar distorsiones del canal, mejorando la fiabilidad del enlace y reduciendo falsos errores, especialmente en entornos donde el canal no es “perfecto”.

¿Por qué estos avances afectan al coste y a la eficiencia de la IA?
Porque los sistemas de IA dependen de mover enormes volúmenes de datos. Si la conectividad no escala o consume demasiado, el coste por operación y la energía total del centro de datos aumentan, limitando el crecimiento real.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×