Elon Musk redirige miles de GPUs de Nvidia reservadas para Tesla hacia X y xAI

En un movimiento inesperado, Elon Musk ha ordenado a Nvidia que envíe miles de GPUs, originalmente reservadas para Tesla, a sus proyectos X y xAI. Según correos electrónicos internos de Nvidia revisados por CNBC, esta decisión ha generado controversia dentro de la compañía de tecnología, con empleados señalando que los comentarios de Musk sobre la inversión en GPUs durante la llamada de ganancias del primer trimestre «conflictan con las reservas».

Nvidia ha declinado comentar al respecto, mientras que Musk no respondió a las solicitudes de comentarios. Sin embargo, en X (anteriormente Twitter), Musk explicó que «Tesla no tenía un lugar donde enviar los chips de Nvidia para activarlos, por lo que habrían permanecido en un almacén. La extensión sur de Giga Texas está casi completa. Esto albergará 50.000 H100s para el entrenamiento de FSD.»

Durante la llamada de ganancias en abril, Musk declaró que Tesla operaba actualmente 35.000 GPUs H100 y esperaba aumentar esa cifra a 85.000 para fin de año. Días después, en X, mencionó que Tesla gastaría 10.000 millones de dólares este año en «entrenamiento e inferencia de IA combinados».

No obstante, los memos de Nvidia indicaron que estas declaraciones no coincidían con lo que habían vendido a Tesla. En su lugar, la compañía redirigió reservas por más de 500 millones de dólares en GPUs hacia X.

«Elon prioriza el despliegue del clúster de GPUs H100 en X en lugar de Tesla, redirigiendo 12.000 GPUs H100 enviadas originalmente para Tesla hacia X,» indicó un memo de Nvidia de diciembre.

«A cambio, las órdenes originales de X de 12.000 H100 programadas para enero y junio se redirigirán a Tesla.»

Otro correo electrónico, posterior a la llamada de ganancias, mencionó que la cifra de 10.000 millones de dólares «conflictúa con las reservas y previsiones del año fiscal 2025,» y hacía referencia a recortes drásticos de empleos en la empresa de vehículos eléctricos, lo que podría retrasar aún más el supercomputador basado en H100 en la Gigafábrica de Texas.

Musk ha afirmado que la conducción autónoma es clave para el futuro de Tesla, pero para lograrlo, necesitará capacidades enormes de GPUs. Estas decisiones podrían ralentizar dicha transición, aunque podrían ayudar con el flujo de caja a corto plazo mientras las finanzas de la compañía continúan luchando.

El renombrado CEO también está intentando convencer a los accionistas para reinstaurar el mayor paquete de recompensas ejecutivas en la historia corporativa, un acuerdo de compensación de 56.000 millones de dólares que fue anulado por un juez de Delaware. Si se reinstaurara, Musk tendría una participación del 20,5%o en Tesla. De no ser así, mencionó que «preferiría construir productos fuera de Tesla.»

Musk también ha expresado anteriormente que se sentía «incómodo haciendo crecer a Tesla para ser líder en IA y robótica sin tener ~25% de control de voto. Suficiente para ser influyente, pero no tanto como para no poder ser revocado.»

Varios investigadores de IA han dejado Tesla para unirse a xAI.

En una publicación en X tras el informe de CNBC, Musk aclaró: «De los aproximadamente $10.000 millones en gastos relacionados con IA que dije que Tesla haría este año, alrededor de la mitad es interna, principalmente la computadora de inferencia de IA diseñada por Tesla y los sensores presentes en todos nuestros autos, además de Dojo. Para construir los superclusters de entrenamiento de IA, el hardware de Nvidia representa aproximadamente 2/3 del costo. Mi mejor estimación actual para las compras de Nvidia por parte de Tesla es de $3.000 millones a $4.000 millones este año.»

Esta semana, Musk también afirmó que xAI desplegará un supercomputador de 300.000 GPUs B200 para el próximo verano y lanzará un centro de datos con 100.000 GPUs H100 próximamente. Ninguno de estos proyectos ha sido verificado independientemente.

Se cree que xAI actualmente alquila alrededor de 16.000 GPUs H100 de Nvidia a Oracle Cloud, además de utilizar Amazon Web Services y capacidad sobrante en los centros de datos de X.

×