Uber ha decidido reforzar su relación con Amazon Web Services con un movimiento que va más allá de la simple capacidad cloud. La compañía ha ampliado su uso de infraestructura de AWS para llevar más carga de sus sistemas de emparejamiento en tiempo real a instancias basadas en Graviton4 y, además, ha empezado a pilotar el entrenamiento de algunos modelos de Inteligencia Artificial sobre Trainium3, los chips de AWS diseñados específicamente para entrenamiento de IA. La novedad es relevante porque muestra cómo Uber está afinando su estrategia multicloud no solo en función del proveedor, sino también del tipo de silicio que mejor encaja con cada carga.
Según AWS, Uber utilizará más instancias Graviton4 para soportar sus Trip Serving Zones, la infraestructura en tiempo real que hay detrás de cada viaje o entrega y que se encarga de procesar datos de localización y lanzar millones de predicciones en milisegundos. En paralelo, la empresa ha comenzado a probar Trainium3 para entrenar algunos de los modelos que ayudan a decidir qué conductor o repartidor asignar, estimar tiempos de llegada y recomendar la mejor opción de entrega al usuario. Es decir, una cosa es la operación inmediata del servicio y otra la capa de aprendizaje que mejora esas decisiones con el tiempo.
Graviton4 gana peso en una parte crítica del negocio
La parte más madura del anuncio está en Graviton4. AWS explica que Uber ya está moviendo más cargas de sus Trip Serving Zones a esta arquitectura para reducir consumo energético, escalar con rapidez durante picos de demanda y bajar latencia en operaciones donde unos pocos milisegundos pueden tener impacto directo en la experiencia del usuario. Uber lo resume con una frase bastante reveladora: “milliseconds matter”. En un negocio donde la plataforma tiene que casar oferta y demanda en tiempo real, la eficiencia del cómputo no es un detalle menor.
Eso encaja con la lógica de Graviton dentro de AWS. La familia Graviton, basada en arquitectura Arm, se ha posicionado desde hace años como una alternativa con mejor relación entre rendimiento y eficiencia para determinadas cargas cloud. En el caso de Uber, la compañía no habla de un rediseño total de su infraestructura, pero sí de una ampliación concreta sobre uno de los sistemas más sensibles de su operación global. Y eso da una pista importante: Uber no está usando AWS solo como capacidad genérica, sino como plataforma con hardware propio que puede ofrecer ventajas específicas en workloads de producción muy afinados.
Trainium3 entra en fase piloto y refuerza el ángulo de IA
La otra pata del acuerdo es más experimental, pero probablemente más estratégica a medio plazo. Uber ha empezado a pilotar el entrenamiento de algunos modelos de IA sobre Trainium3, el acelerador de AWS para entrenamiento. AWS asegura que estos modelos analizan datos de miles de millones de viajes y entregas para optimizar el emparejamiento entre usuarios y conductores, calcular tiempos de llegada y personalizar recomendaciones. De momento, la propia comunicación de Amazon deja claro que se trata de un pilotaje, no de una migración masiva de toda la capa de entrenamiento de IA de Uber a Trainium3.
Ese matiz importa bastante. En el mercado actual de chips para IA, muchas empresas anuncian pruebas, pilotos o validaciones con aceleradores alternativos, pero pocas convierten inmediatamente esos ensayos en una sustitución completa de sus flujos principales. En el caso de Uber, el mensaje parece más prudente: Trainium3 entra como una opción para construir una base tecnológica que permita desarrollar predicciones y modelos más rápidos y eficientes, pero todavía sin presentar el movimiento como una ruptura con otras infraestructuras de IA ya existentes.
Un acuerdo con AWS que no elimina la estrategia multicloud
El anuncio también resulta interesante porque no contradice la estrategia multicloud que Uber formalizó en 2023. Aquel año, la compañía firmó dos acuerdos de siete años con Oracle Cloud Infrastructure y Google Cloud como parte de su salida progresiva de centros de datos propios. Oracle anunció oficialmente una alianza estratégica de siete años para acelerar la migración cloud de Uber, y Google comunicó al mismo tiempo una ampliación de su relación con la empresa para mover aplicaciones y datos desde centros de datos on-premise a Google Cloud.
La clave, por tanto, no es que Uber esté abandonando su enfoque multicloud, sino que lo está refinando. Google y Oracle siguen formando parte de su arquitectura de largo plazo, mientras que AWS gana peso en un terreno donde hoy puede marcar diferencias reales: la combinación de cómputo de propósito general optimizado con Graviton4 y una posible vía de entrenamiento de IA con Trainium3. Más que una apuesta exclusiva por un único proveedor, lo que se percibe es una asignación más selectiva de cargas según coste, latencia, elasticidad y tipo de hardware disponible.
Eso además encaja con la trayectoria reciente de Uber. La propia compañía ha explicado en publicaciones técnicas sobre Google Cloud que su modernización de infraestructura persigue más productividad, más velocidad de ingeniería y mejor eficiencia de costes. En ese contexto, ampliar AWS para una pieza concreta y crítica del negocio no supone un giro de guion, sino una continuación bastante coherente de una arquitectura distribuida donde cada nube puede aportar algo distinto.
AWS gana una referencia valiosa en chips propios
Para AWS, el acuerdo también tiene valor simbólico y comercial. Uber no es una startup pequeña ni un laboratorio de pruebas: es una aplicación global de tiempo real con millones de usuarios diarios y una exigencia extrema en disponibilidad y latencia. Que una compañía así lleve más carga operativa a Graviton4 y comience a probar Trainium3 da a Amazon una referencia muy potente para su estrategia de silicio propio. En otras palabras, no se trata solo de vender nube, sino de demostrar que sus chips pueden sostener una aplicación crítica a gran escala.
En el fondo, este anuncio muestra una tendencia cada vez más visible en la infraestructura cloud: la competencia ya no se juega únicamente entre proveedores, sino entre plataformas con silicio diferenciado. Uber necesita velocidad, elasticidad, eficiencia y una base sólida para seguir mejorando sus modelos. AWS pone sobre la mesa Graviton4 para la capa operativa y Trainium3 para la experimental. No es todavía una transformación total de su stack, pero sí un paso bastante claro en una dirección: la del cloud donde la ventaja competitiva empieza a depender también de qué chip está debajo.
Preguntas frecuentes
¿Qué usará Uber exactamente de AWS en este nuevo acuerdo?
Uber ampliará el uso de instancias AWS Graviton4 para más cargas de sus Trip Serving Zones y ha empezado a pilotar el entrenamiento de algunos modelos de IA sobre AWS Trainium3.
¿Qué son las Trip Serving Zones de Uber?
Son parte de la infraestructura en tiempo real que gestiona cada viaje o entrega, procesando datos de localización y millones de predicciones en milisegundos para emparejar usuarios con conductores o repartidores.
¿Significa esto que Uber abandona Google Cloud u Oracle Cloud?
No. Uber mantiene una estrategia multicloud. En 2023 firmó acuerdos de siete años con Oracle y Google Cloud para migrar fuera de sus centros de datos propios, y este anuncio con AWS se interpreta más como una ampliación selectiva de cargas que como un reemplazo de esas alianzas.
¿Trainium3 ya será la base de toda la IA de Uber?
No por ahora. AWS y Uber hablan de un pilotaje de algunos modelos de IA sobre Trainium3. Es un movimiento relevante, pero todavía en fase de prueba y no presentado como una migración total.