OpenAI ya no solo es sinónimo de modelos y apps; también empieza a serlo de infraestructura. La compañía ha anunciado un acuerdo multianual con AMD para desplegar hasta 6 gigavatios (GW) de capacidad en GPU para IA —con un primer tramo de 1 GW de Instinct™ MI450 fijado para la segunda mitad de 2026— y un warrant por hasta 160 millones de acciones de AMD ligado al cumplimiento de hitos técnicos, comerciales y umbrales de precio de la acción. Más allá del titular, la señal estratégica es nítida: OpenAI se está posicionando con varios proveedores de cómputo a la vez, AMD incluida, NVIDIA por supuesto, y con el resto de actores que hacen posible escalar IA (fundiciones, packaging, memoria HBM, energía y térmica). El objetivo: asegurarse músculo de cómputo a varios ejercicios y reducir riesgo en una cadena de suministro tensionada.
Qué se ha pactado exactamente con AMD (y qué no)
El acuerdo AMD–OpenAI sí dice:
- Escala: hasta 6 GW de capacidad a lo largo de varias generaciones de AMD Instinct.
- Primer hito: 1 GW con MI450 en 2H 2026, con despliegues “a escala rack”.
- Alianza técnica: co-ingeniería hardware/software para optimizar las hojas de ruta de producto.
- Incentivos: warrant de hasta 160 M de acciones para OpenAI, consolidado por tramos cuando se cumplan despliegues y metas (técnicas, comerciales y de cotización).
Lo que no dice (y conviene aclarar): no es una compra directa e inmediata de “un 10 %” de AMD. Un warrant es un derecho contingente a comprar acciones en el futuro, sujeto a condiciones. La dilución potencial para AMD solo ocurriría si se entregan los GW y se cumplen los umbrales pactados.
El movimiento en contexto: una OpenAI “multi-proveedor” por diseño
La lectura para un medio tech es clara: OpenAI está ejecutando una estrategia multi-proveedor de cómputo. Históricamente ha desplegado buena parte de su infraestructura sobre NVIDIA, que mantiene el liderazgo de cuota y un ecosistema CUDA maduro e inigualado. A la vez, extiende esa base con AMD como socio estratégico para varios años. El mensaje que envía al mercado:
- Diversificación real. Minimiza riesgo de dependencia de un solo vendor, gana palanca de negociación y resiliencia ante HBM/packaging o logística.
- Co-ingeniería SW/HW. La alianza con AMD contempla optimización del stack —ROCm, kernels, bibliotecas, frameworks— para que Instinct rinda en cargas reales (entrenamiento e inferencia).
- TCO competitivo. Si AMD sostiene rendimiento y eficiencia térmica/energética a escala rack, abre hueco frente al “status quo” en coste por epoch o latencia por token.
Nada de esto “expulsa” a NVIDIA; sí eleva la vara competitiva. En la práctica, OpenAI dibuja un landing zone multi-proveedor donde NVIDIA y AMD —y, en el perímetro, otros aceleradores— conviven y se optimiza carga por precio, rendimiento por vatio y disponibilidad.
Por qué el acuerdo con AMD va más allá del “pedido masivo”
La gran diferencia frente a un contrato de compra al uso es la alineación a hitos:
- El warrant solo se va adjudicando (“vesting”) si OpenAI despliega (1 GW → 6 GW) y si AMD cumple metas técnicas, comerciales y de precio de la acción.
- Para AMD, comunica visibilidad de demanda a varios ejercicios sin dilución inmediata. Para OpenAI, asegura prioridad y escala con un incentivo a que el proveedor entregue.
En lo tecnológico, AMD habla de soluciones a escala rack: en 2026 no se compite solo en FLOPS, sino en térmica líquida, interconexión a terabits/s, densidad por rack, HBM estable y operabilidad (sensórica, telemetry, servicio). Ese es el plano donde se ganan —o se pierden— P&L en IA a escala.
NVIDIA sigue siendo clave (y OpenAI no suelta ese volante)
La otra cara de la moneda: NVIDIA. Para OpenAI, la compañía de Jensen Huang sigue siendo esencial; su combo de silicio y software (CUDA, cuDNN, NCCL, Triton, TensorRT, ecosistema PyTorch) acorta el time-to-value de cada generación. Nada en el anuncio AMD–OpenAI sugiere lo contrario. El pivote no es sustitución, sino sumar una columna adicional de la catedral de cómputo.
A medio plazo, ese “doble carril” es lo que permite a OpenAI mover carga según escasez, precio o ajuste técnico, y presiona al mercado a competir en algo más que FLOPS de brochure: rendimiento sostenido, software de alto nivel y servicio de campo.
Cadena de suministro: HBM, packaging, energía y térmica (el “otro” cómputo)
Elevar la mirada más allá del chip revela tres cuellos de botella que cualquiera en infra reconoce:
- HBM y OSAT. La memoria de alto ancho de banda y el empaquetado avanzado llevan meses tensionados; acuerdos multianuales como este reordenan prioridades globales.
- Energía firme y refrigeración. 6 GW a varios años implican centros de datos con decenas de MW por campus, líquida D2C o inmersión, e incluso microcanales para “domar” el térmico. El coste del kWh y los permisos pasan a ser variables de producto.
- Red y almacenamiento. Backplanes, CX/MX a TB/s, fabric de baja latencia y flujos de I/O que no frustren pipelines de entrenamiento o serving.
OpenAI no ha detallado ubicaciones ni mix por generación más allá del 1 GW MI450; pero cualquier hoja de ruta realista integra energía, térmica, red y cadena HBM/OSAT tanto como FLOPS.
Cómo podría moverse el stack software
El éxito de AMD en IA no depende solo del die. El stack (ROCm, compiladores, kernels optimizados y compatibilidad en frameworks) tendrá que rendir en cargas reales —preprocesado, entrenamiento denso, Mixture-of-Experts, inference serving— con latencia y coste convincentes. La co-ingeniería con un consumidor extremo como OpenAI acelera ese camino; si el tooling llega con calidad, el TCO del rack completo —no solo el chip— empieza a cuadrar.
Qué mirar en 2026 (y antes)
- MI450: benchmarks en entreno e inferencia, eficiencia por vatio, estabilidad bajo carga, software maduro.
- Hitos de despliegue: 1 GW en 2H 2026, progresión hacia 6 GW; señales de capacidad en foundries y HBM.
- Stack ROCm: paridad funcional con CUDA en frameworks clave, kernels críticos optimizados (atención, MoE, flash-attn, serving).
- Operación: densidad por rack, soluciones líquidas de referencia, telemetría y serviceability.
- NVIDIA: reacción de producto (refresh de generaciones, rack designs), disponibilidad y propuestas de TCO en pods completos.
Conclusión: OpenAI arma un “portfolio de cómputo” a varios años
Lo que está haciendo OpenAI no es un pedido más; es diseñar un portfolio de cómputo para la década. AMD entra como socio nuclear con 6 GW a varios años; NVIDIA sigue al timón de gran parte del stack y del ecosistema; el resto de la industria —fundiciones, HBM, packaging, cooling, energía— se acomoda a esa escala. En un mercado donde el modelo siguiente siempre consume más y la ventana para entrenarlo es menor, quien amasa cómputo diversificado y operable lleva ventaja.
Para la comunidad tech, la lectura de fondo es optimista: más competencia en silicio, más software optimizado en dos (o más) pilas, y más innovación en el punto que realmente importa hoy: el rendimiento sostenido a escala rack con TCO defendible. OpenAI ya juega ese partido en varios campos. Y eso —para bien— moverá a todos.