OpenAI ha confirmado que su primer chip personalizado para inteligencia artificial (IA) estará listo en 2026, y será desarrollado con la colaboración de Broadcom y fabricado por TSMC. Esta decisión marca un cambio en la estrategia inicial de OpenAI, que había evaluado construir una red propia de fábricas para producir sus chips, pero finalmente decidió optar por alianzas con grandes fabricantes de la industria.
El reto de la potencia y la diversificación de proveedores
Como una de las empresas de IA más destacadas, OpenAI necesita una inmensa capacidad de cómputo para entrenar y operar modelos como ChatGPT. Hasta ahora, la empresa ha dependido principalmente de las GPU de Nvidia, especialmente para el entrenamiento de sus modelos, donde la IA aprende de datos y aplica el conocimiento a nuevas predicciones. Sin embargo, la alta demanda de estos chips ha creado desafíos de disponibilidad y costes, lo que llevó a OpenAI a explorar alternativas.
Actualmente, la compañía está diversificando su suministro de chips a través de una combinación de adquisiciones de Nvidia, AMD y ahora sus propios diseños. OpenAI planea utilizar los chips de AMD a través de la infraestructura de nube de Microsoft Azure, como respuesta a los problemas de suministro y altos costos asociados con las GPU de Nvidia. Según Reuters, OpenAI también estaría valorando otros acuerdos para continuar expandiendo su red de socios y alternativas de hardware.
Broadcom y TSMC, los aliados clave para un chip de inferencia
La colaboración con Broadcom está orientada a desarrollar un chip específicamente para tareas de inferencia, que es cuando la IA aplica el aprendizaje para generar resultados, a diferencia del proceso de entrenamiento. Aunque actualmente la demanda de chips de entrenamiento es mayor, se espera que la necesidad de chips de inferencia crezca en los próximos años, a medida que la IA se aplique en más contextos y aplicaciones.
Broadcom, que ya colabora con empresas tecnológicas como Google en el diseño de chips, ayudará a OpenAI a optimizar el diseño de su chip para inferencia y a asegurar la capacidad de fabricación con TSMC. Esta última, reconocida como líder en producción de semiconductores, ha sido elegida para producir el primer chip de OpenAI.
La competencia de AMD y Nvidia en el mercado de IA
OpenAI también planea incorporar a su infraestructura los nuevos chips MI300X de AMD a través de Azure, ampliando su acceso a alternativas a Nvidia, que actualmente controla más del 80 % del mercado de chips de IA. Los esfuerzos de AMD por capturar parte de este mercado son significativos, y ha proyectado unos ingresos de 4.500 millones de dólares en ventas de chips de IA para 2024.
Esta estrategia de diversificación podría ayudar a OpenAI a reducir su dependencia de un solo proveedor y los problemas de disponibilidad que enfrenta el mercado. Los costos de cómputo, que incluyen hardware, electricidad y servicios en la nube, son actualmente la mayor carga financiera de OpenAI, lo que ha motivado su búsqueda por optimizar el uso de sus recursos y su colaboración con diferentes fabricantes.
Un equipo propio de expertos en chips
Como parte de este proyecto, OpenAI ha conformado un equipo dedicado al desarrollo de su chip, que cuenta con aproximadamente 20 ingenieros y expertos en semiconductores, algunos de ellos con experiencia en la creación de unidades de procesamiento tensorial (TPU) en Google. Esta medida permite a OpenAI trabajar de forma más estratégica en el diseño de chips adaptados a sus necesidades específicas de IA.
Perspectivas del futuro
Este enfoque híbrido de OpenAI, que combina la creación de su propio chip con adquisiciones de AMD y Nvidia, sienta un precedente en la industria tecnológica. A medida que la demanda de IA sigue en aumento, y con ella las necesidades de procesamiento, el movimiento de OpenAI podría servir de guía para otras empresas que buscan gestionar los altos costos y complejidades del hardware de IA.
Con el respaldo de Broadcom y TSMC, OpenAI espera tener una ventaja competitiva a partir de 2026, año en el que su primer chip de IA estará en operación. Mientras tanto, la empresa continúa explorando opciones que le permitan afianzar su posición como líder en la carrera tecnológica de la inteligencia artificial.