El crecimiento de la Inteligencia Artificial está alterando una parte menos visible de la infraestructura digital: el tráfico de red. Hasta hace poco, muchos operadores cloud, CDNs y proveedores de almacenamiento estaban acostumbrados a flujos más repartidos, con muchos usuarios, muchos destinos y patrones relativamente previsibles. La IA está introduciendo otra lógica: grandes volúmenes de datos moviéndose entre pocos puntos, en ráfagas intensas y con necesidades de ancho de banda mucho más difíciles de planificar.
El informe de estadísticas de red del primer trimestre de 2026 de Backblaze pone cifras y contexto a ese cambio. La compañía, conocida por sus servicios de almacenamiento cloud, observa cómo los flujos vinculados a neoclouds, hiperescalares y cargas de IA se comportan de forma distinta al tráfico tradicional de CDN, hosting o proveedores regionales de Internet. El dato relevante no es solo cuánto tráfico se mueve, sino cómo se mueve.
De tráfico repartido a grandes flujos entre pocos puntos
Los flujos de trabajo de IA no necesitan únicamente almacenar datos. Necesitan moverlos una y otra vez a lo largo del ciclo de vida del modelo. Los conjuntos de datos se ingieren, se transforman, se exportan para entrenamiento, se recuperan para evaluación, se vuelven a almacenar y se actualizan conforme los modelos cambian. Cuando hablamos de datasets de varios petabytes, cada una de esas fases puede convertirse en una operación de red de gran magnitud.
Backblaze lo resume como un paso desde patrones “difusos”, propios de Internet, hacia flujos grandes y de alto ancho de banda entre un número menor de puntos finales. Para un equipo de ingeniería de red, esa diferencia lo cambia todo. El tráfico de una CDN suele distribuirse entre muchos usuarios y ubicaciones, lo que facilita repartir carga y modelar crecimiento. El tráfico de IA puede concentrarse en pocos clústeres de GPU o en unas cuantas redes de computación, con picos que aparecen cuando se abre una ventana de entrenamiento o se actualiza un conjunto de datos.
Este tipo de tráfico se conoce a menudo como “elephant flows”: flujos enormes, concentrados y difíciles de absorber si la red no está preparada. No se parecen al consumo de vídeo, al hosting web tradicional ni al tráfico residencial. Son transferencias pesadas entre almacenamiento y cómputo, muchas veces condicionadas por la disponibilidad limitada de clústeres GPU. Si una empresa consigue acceso a un bloque de GPUs durante unas horas o unos días, necesita mover datos rápido, ejecutar el trabajo y extraer resultados antes de que esa ventana termine.
Ahí aparece una presión nueva sobre la infraestructura. No basta con crecer de forma lineal. Hay que tener capacidad para absorber ráfagas, enlaces internos suficientes dentro del centro de datos, puertos de 100G o 400G, acuerdos de interconexión privada y una arquitectura capaz de priorizar grandes flujos sin degradar el resto de servicios.
Un trimestre con pausa invernal y rebote en marzo
El primer trimestre de 2026 mostró una dinámica curiosa. Backblaze observó una ralentización durante los meses de invierno en el tráfico asociado a neoclouds e hiperescalares, seguida de una recuperación en marzo. Al mismo tiempo, el tráfico de CDN aumentó durante el invierno, mientras que hosting e ISP regionales se mantuvieron dentro de niveles más previsibles.
La compañía plantea dos posibles explicaciones. La primera es estacional: los proyectos de IA también dependen de equipos humanos, presupuestos, calendarios de desarrollo y periodos de menor actividad. Si los equipos paran o reducen ritmo durante el invierno, parte del tráfico puede bajar. La segunda explicación está relacionada con el ciclo de vida de los datos. Si un gran conjunto de datos ya está almacenado, puede no moverse durante semanas o meses hasta que llega una nueva actualización, un entrenamiento o una evaluación que dispara otra transferencia masiva.
Los porcentajes ayudan a entender el cambio. Según Backblaze, el tráfico combinado de neoclouds e hiperescalares pasó del 36,4 % del volumen total en el cuarto trimestre de 2025 al 25,5 % en el primer trimestre de 2026. En paralelo, el tráfico de CDN subió de alrededor del 20 % al 32 %, y el tráfico regional de ISP pasó del 21,5 % al 27,8 %. La lectura no es que la IA haya perdido importancia, sino que sus flujos pueden ser menos regulares y más dependientes de ciclos concretos.
Ese carácter irregular complica la planificación. Una red pensada para crecimiento estable puede quedarse corta cuando un cliente mueve grandes volúmenes hacia un clúster de entrenamiento. Y sobredimensionar toda la infraestructura para picos imprevisibles también tiene coste. Por eso la ingeniería de red para IA se acerca más a una planificación por escenarios que a una simple proyección de tráfico mensual.
Ónde se concentra el tráfico de IA
El análisis geográfico de Backblaze muestra una fuerte concentración del tráfico de neoclouds, hiperescalares y CDN en Estados Unidos. La propia compañía recuerda que el país alberga en torno al 40 % o 45 % de los centros de datos globales, lo que encaja con la concentración observada. Dentro de Estados Unidos, California aparece como un punto destacado para tráfico neocloud, mientras que la actividad de hiperescalares se alinea con California y Virginia, especialmente con el corredor de Ashburn y Reston.
Esa concentración no sorprende. Ashburn y el norte de Virginia son desde hace años una de las grandes zonas de interconexión y centros de datos del mundo. California, por su parte, combina proveedores cloud, empresas tecnológicas, demanda de IA y proximidad a parte del ecosistema de software. Lo interesante es que el tráfico de IA no se reparte de forma homogénea por todas las nuevas regiones anunciadas para centros de datos. La infraestructura existente y las rutas de red consolidadas siguen pesando mucho.
Fuera de Estados Unidos, Backblaze detecta actividad neocloud en Finlandia, Brasil, Francia y Canadá. El tráfico de CDN aparece con fuerza en Países Bajos, en parte por la conectividad con AMS-IX, mientras que el hosting destaca en Alemania. Europa muestra además una dinámica distinta a la estadounidense, con más peso de puntos de intercambio locales y decisiones de interconexión condicionadas por coste, política de redes y preferencias operativas.
Para España y el sur de Europa, la lectura es clara: atraer centros de datos de IA no depende solo de energía, suelo y fiscalidad. También depende de interconexión, rutas, proximidad a clientes, capacidad de red, acuerdos privados y disponibilidad de ancho de banda en grandes bloques. La IA no perdona cuellos de botella entre almacenamiento y cómputo.
Qué cambia para los equipos de infraestructura
El informe de Backblaze deja una consecuencia práctica: los equipos de red tienen que gestionar dos mundos a la vez. Por un lado, el tráfico estable de CDN, hosting e ISP regionales, con curvas más fáciles de modelar. Por otro, el tráfico de neoclouds e hiperescalares, más concentrado, más dinámico y con picos que obligan a añadir capacidad en saltos grandes.
Backblaze señala que, para gestionar tráfico de neoclouds e hiperescalares, sus soluciones pasan por añadir ancho de banda en incrementos de 100G y, a menudo, puertos de 400G; asegurar que los enlaces internos del centro de datos soportan ráfagas; y establecer interconexiones privadas con socios concretos cuando tiene sentido. Es un enfoque más cercano a infraestructura mayorista de alto rendimiento que al crecimiento tradicional de servicios web.
La multimodalidad también empuja en esa dirección. Los modelos ya no se entrenan solo con texto. Imagen, audio, vídeo y datos sintéticos elevan el tamaño de los datasets y aumentan el volumen de movimiento entre almacenamiento, entrenamiento, evaluación e inferencia. Si la próxima generación de aplicaciones usa agentes, vídeo en tiempo real, modelos multimodales y personalización empresarial, el tráfico seguirá ganando peso operativo.
Para las empresas que construyen productos de IA, esta realidad tiene implicaciones de coste. Mover datos no es gratis. La elección del proveedor de almacenamiento, la región, el clúster de GPU, la interconexión y la arquitectura de pipeline pueden afectar tanto al rendimiento como a la factura. En IA, la computación importa, pero la red empieza a ser igual de estratégica.
La conclusión no es que todo deba moverse a redes privadas o a centros de datos especializados. El punto es más concreto: las cargas de IA no se comportan como tráfico web clásico. Si una organización va a entrenar, ajustar o evaluar modelos con datasets grandes, necesita diseñar su almacenamiento y su red pensando en movimientos repetidos, ráfagas y proximidad entre datos y cómputo.
La IA está haciendo que el tráfico sea más grande, más ruidoso y menos predecible. Y eso obliga a replantear cómo se dimensionan las redes cloud. La próxima ventaja competitiva no estará solo en tener GPUs disponibles, sino en poder alimentarlas con datos a tiempo, sin congestión y sin que el coste de mover información acabe devorando el valor del proyecto.
Preguntas frecuentes
¿Qué es el tráfico neocloud?
Es el tráfico asociado a redes de computación centradas en IA, normalmente conectadas a clústeres GPU, entrenamiento, inferencia o evaluación de modelos. Suele implicar grandes transferencias entre pocos puntos.
¿Por qué el tráfico de IA es más difícil de predecir?
Porque depende de ciclos de entrenamiento, actualización de datasets, disponibilidad de clústeres y ventanas de trabajo. Puede estar bajo durante semanas y subir de golpe cuando se mueve un gran volumen de datos.
¿Qué diferencia hay entre tráfico de IA y tráfico CDN?
El tráfico CDN suele distribuir contenido a muchos usuarios y destinos. El tráfico de IA tiende a concentrarse en grandes flujos entre almacenamiento y cómputo, con pocos puntos finales y alto ancho de banda.
¿Qué deben tener en cuenta las empresas que trabajan con IA?
Deben planificar dónde almacenan los datos, dónde ejecutan el cómputo, qué ancho de banda necesitan, qué costes de transferencia asumirán y si necesitan interconexiones privadas o regiones más cercanas a sus clústeres.