OpenAI y Broadcom anunciaron una colaboración multianual para desarrollar y desplegar 10 gigavatios (GW) de aceleradores de IA y sistemas de red en centros de datos de OpenAI y de socios. La nota conjunta, fechada en San Francisco y Palo Alto el 13 de octubre de 2025, detalla que OpenAI diseñará los aceleradores y los sistemas, mientras que Broadcom co-desarrollará y fabricará los racks y aportará su portafolio Ethernet, PCIe y óptico para escalar los clústeres tanto en “scale-up” como en “scale-out”. El despliegue de racks está previsto a partir de la segunda mitad de 2026 y se completará a finales de 2029.
La empresa detrás de ChatGPT subraya que construir sus propios chips permite “incrustar lo aprendido al desarrollar modelos frontera y productos directamente en el hardware”, con la ambición de desbloquear “nuevos niveles de capacidad e inteligencia”. El anuncio llega con un term sheet firmado para los racks que incorporarán los aceleradores y las soluciones de red de Broadcom, una señal de avance en la cadena de suministro hacia clusters abiertos, escalables y eficientes.
Sam Altman, cofundador y director ejecutivo de OpenAI: “Asociarnos con Broadcom es un paso crítico para construir la infraestructura que desbloquee el potencial de la IA y aporte beneficios reales a personas y empresas. Desarrollar nuestros propios aceleradores se suma al ecosistema de socios que están creando la capacidad necesaria para empujar la frontera de la IA”.
Hock Tan, presidente y consejero delegado de Broadcom: “La colaboración con OpenAI marca un momento decisivo en la búsqueda de la inteligencia artificial general. Estamos encantados de co-desarrollar y desplegar 10 GW de aceleradores y sistemas de red de nueva generación para allanar el futuro de la IA”.
Greg Brockman, cofundador y presidente de OpenAI: “Al construir nuestro propio chip, podemos incrustar lo aprendido creando modelos frontera y productos directamente en el hardware, desbloqueando nuevos niveles de capacidad e inteligencia”.
Charlie Kawwas, presidente del Semiconductor Solutions Group de Broadcom: “Los aceleradores a medida combinan extraordinariamente bien con soluciones Ethernet estandarizadas de scale-up y scale-out para ofrecer infraestructura de IA optimizada en coste y rendimiento. Los racks incorporan el porfolio end-to-end de Ethernet, PCIe y conectividad óptica de Broadcom”.
Qué implica “10 GW” en aceleradores de IA (y por qué Ethernet)
El volumen de 10 GW da una idea de la escala industrial que maneja OpenAI: se trata de capacidad eléctrica agregada prevista para clústeres de IA a lo largo de varios años, distribuida entre propios centros y data centers de socios. En la práctica, esta magnitud no equivale a un solo campus, sino a múltiples emplazamientos con racks que integran aceleradores y red conectados por Ethernet y óptica de Broadcom.
Que la interconexión apueste por Ethernet —en lugar de otras tecnologías propietarias— es un punto relevante del anuncio. Broadcom lo califica de piedra angular para estandarizar la escala (vertical y horizontal) de los clústeres: scale-up (consolidación y ancho de banda dentro del nodo y del rack) y scale-out (crecimiento entre racks y dominios). Con Ethernet y PCIe como cimientos, Broadcom afirma poder ofrecer rutas de crecimiento más abiertas, con optimización de coste/rendimiento y eficiencia energética.
Calendario y alcance: de 2026 a 2029, con racks “de casa”
- Diseño y sistemas: OpenAI define la arquitectura de los aceleradores y los sistemas completos (racks), “incrustando” aprendizajes de sus modelos frontera y productos.
- Co-desarrollo y suministro: Broadcom aporta desarrollo, fabricación y su stack de conectividad (Ethernet, PCIe, óptica) para integrar esos diseños en racks productivos.
- Despliegue: segunda mitad de 2026 como punto de partida, con un horizonte de finalización a finales de 2029.
- Ámbito: facilidades de OpenAI y centros de datos de socios, lo que sugiere una malla multinodo para servir entrenamiento y serving de modelos a gran escala.
La compañía remarca que ya existen acuerdos previos (de “co-development and supply”) con Broadcom, y que ambas partes han firmado un term sheet para el despliegue de racks que combinen aceleradores y red de Broadcom.
¿Por qué OpenAI diseña sus propios aceleradores?
El mensaje de OpenAI es directo: llevar el “feedback” del software al hardware. Diseñar aceleradores a medida —en vez de comprar soluciones off the shelf— persigue tres objetivos:
- Ajuste fino a las cargas reales: alineación de microarquitectura, memoria, interconexión y software con las exigencias de pre-entrenamiento, fine-tuning e inferencia de modelos frontera.
- Control de la hoja de ruta: capacidad de iterar junto a un socio de foundry/packaging y proveedores de red sin esperar ciclos genéricos; priorizar lo que sus propias cargas necesitan.
- Eficiencia operativa: alinear la pila completa (acelerador, Ethernet, PCIe, óptica, software) para reducir latencias, cuellos y costes de energía por token o por step de entrenamiento.
En palabras de Greg Brockman, el valor está en “incrustar lo aprendido” directamente en silicio y sistemas para alcanzar “nuevos niveles de capacidad e inteligencia”.
Broadcom: Ethernet como columna vertebral del AI datacenter
Para Broadcom, la colaboración refuerza dos tesis:
- La **importancia de los aceleradores a medida para cargas de IA de siguiente generación.
- La **elección de Ethernet como tecnología de scale-up/scale-out en el centro de datos de IA, gracias a su estandarización, ecosistema y economías de escala.
La empresa pone el foco en un portafolio “end-to-end” que incluye conmutación Ethernet de altas prestaciones, PCIe para interconexión intra-rack y soluciones ópticas para enlaces de alta capacidad y baja latencia entre racks y pods.
Un empujón para la misión (y la demanda global)
OpenAI liga la alianza con Broadcom a su misión de que la IA general beneficie a “toda la humanidad”, y la presenta como un paso para satisfacer la “demanda mundial creciente” de capacidad de IA. La compañía afirma haber alcanzado más de 800 millones de usuarios activos semanales, con adopción fuerte en empresas, pymes y desarrolladores, un nivel de utilización que exige infraestructura sostenida y capacidad predecible.
Si el software ha sido el motor de la aceleración de productos, la infraestructura —energía, chips, red, centros de datos— es el cuello de botella. Este anuncio responde a ese cuello con volumen, tiempo y estandarización.
Qué no dice la nota (y conviene tener presente)
El comunicado no detalla nodos concretos, ubicaciones de despliegue ni parámetros de los aceleradores (proceso de foundry, memoria HBM, TDP, packaging). Tampoco explicita capex por fase o PUE objetivo de los racks. Esas incógnitas suelen aclararse en hojas de ruta técnicas y actualizaciones posteriores, una vez que el term sheet evoluciona a contratos y milestones.
El calendario —H2 2026 a finales de 2029— implica varios ciclos de iteración arquitectónica y de fabricación, con evidente exposición a riesgos de suministro (materiales, packaging, HBM) y a la disponibilidad energética y de transmisión en los emplazamientos. La apuesta por Ethernet mitiga parte del riesgo al apoyarse en estándares masivos, pero no elimina los retos de orquestación a escala hyperscale.
Lectura estratégica: capacidad propia, estándares abiertos y socios “de cadena”
- Capacidad propia: los aceleradores diseñados por OpenAI aligeran su dependencia de hojas de ruta ajenas para modelos frontera.
- Estándares abiertos: Ethernet/PCIe/óptica como base reduce coste total y habilita escala con ecosistema amplio.
- Socios “de cadena”: la alianza con Broadcom asegura un proveedor de red y sistemas end-to-end que co-desarrolla con OpenAI, un modelo que ha probado su eficacia en la era de los hyperscalers.
Para el mercado, el mensaje es claro: OpenAI no solo compite en modelos y plataformas, también invierte en la infraestructura que los hace posibles, una estrategia que marcará la competencia por coste por inferencia/entrenamiento y por tiempo de comercialización en los próximos años.
Preguntas frecuentes (FAQ)
¿Qué significa que OpenAI y Broadcom desplieguen “10 GW” de aceleradores de IA?
Es la capacidad eléctrica agregada objetivo para racks que integran aceleradores y red durante varios años (H2 2026–finales de 2029), distribuida entre centros propios y de socios. No es un único campus; implica múltiples emplazamientos con crecimientos por fases.
¿Por qué Ethernet para scale-up y scale-out en clústeres de IA?
El anuncio destaca Ethernet por su estandarización, ecosistema y coste/rendimiento. Para Broadcom, combinar aceleradores a medida con Ethernet y PCIe permite optimizar la infraestructura “de próxima generación” sin atarse a tecnologías propietarias, facilitando la escala y la operación.
¿Cuándo empiezan a llegar los racks y cuándo termina el despliegue?
Según el comunicado, los despliegues comienzan en la segunda mitad de 2026 y se completan hacia finales de 2029, con co-desarrollo y suministro continuos durante ese periodo.
¿Qué gana OpenAI diseñando sus propios aceleradores?
OpenAI afirma que puede “incrustar lo aprendido” del desarrollo de modelos frontera y productos directamente en el hardware, lo que habilita mejor ajuste a sus cargas, control de la hoja de ruta y potencial eficiencia (coste/latencia/energía) a escala hyperscale.
vía: openai