Durante años, hablar de Tesla y semiconductores propios era, sobre todo, hablar de Dojo: un superordenador interno concebido para entrenar modelos con los datos de su conducción asistida y su ambición robótica. Pero en los últimos meses el relato se ha desplazado hacia otra pieza: la familia de chips AI de Tesla (AI5, AI6 y siguientes), que la compañía quiere convertir en una plataforma común para coche, robot y centro de datos. En esa transición, el gigante de Elon Musk está moviendo fichas en dos frentes: acelerar el ritmo de diseño y replantear la cadena de suministro.
El detonante más llamativo llegó con una afirmación directa del propio Musk: “resolver AI5 era existencial” para la compañía. La frase no es menor: sugiere que, sin ese salto de silicio, el resto de la estrategia de Inteligencia Artificial —desde la autonomía al entrenamiento masivo— quedaba en el aire. A partir de ahí, Musk ha defendido una hoja de ruta con un objetivo que suena más propio de la industria del software que de la microelectrónica: entrar en un ciclo de diseño de unos 9 meses para las próximas generaciones (AI6, AI7, AI8, AI9), un ritmo que buscaría recortar distancia frente a la cadencia anual típica de los grandes actores del cómputo acelerado.
Del “todo con TSMC” a un modelo por capas
Más allá del calendario, la otra gran historia está en el cómo se fabrica y se empaqueta ese silicio. Dojo, en sus primeras iteraciones, se asoció a una estrategia muy concreta: módulos gigantes construidos a partir de 25 chips D1 integrados en una “training tile”, un enfoque que se vinculó a técnicas avanzadas de empaquetado tipo System-on-Wafer para interconectar múltiples dies en un conjunto de gran tamaño. Esa clase de integración tiene ventajas evidentes para el entrenamiento: ancho de banda interno extremo y una arquitectura pensada para escalar como un bloque compacto. Pero también impone un precio: complejidad industrial, dependencia de capacidades muy específicas y un proceso de producción que no siempre encaja con volúmenes “de automoción”, donde se cuentan millones de unidades.
En ese contexto han circulado informes del sector que apuntan a una ruptura con el esquema tradicional de “un único socio lo hace todo”. La tesis es que Tesla estaría explorando un modelo bifurcado para Dojo 3, donde Samsung Foundry se encargue de la fabricación (front-end) y Intel del empaquetado avanzado (back-end) para construir módulos. La jugada, de confirmarse, sería relevante por dos motivos: por la ambición técnica (módulos de gran tamaño con interconexión avanzada) y por su lectura geoestratégica (diversificación y negociación de capacidad en un mercado de nodos punteros y packaging tensionado).
Samsung, Intel y la batalla del empaquetado: EMIB como pieza clave
El empaquetado es, cada vez más, el campo donde se decide la competitividad real de un chip. Y ahí aparece el nombre de EMIB, una tecnología 2,5D de Intel basada en “puentes” de silicio embebidos en el sustrato para conectar varios dies sin recurrir a un interposer completo de gran tamaño. En teoría, esta aproximación permite más flexibilidad para unir chiplets, reducir ciertas limitaciones geométricas y diseñar módulos escalables por bloques.
Para Tesla, el atractivo de un empaquetado modular es evidente: si el objetivo es que un mismo silicio sirva para coche (pocos chips), robótica (configuraciones similares) y servidores (muchos chips), la arquitectura necesita “crecer” de forma industrializable. Eso no elimina los retos —rendimientos, disipación, interconexión, fiabilidad—, pero cambia el tipo de apuesta: menos “exótico” a nivel de wafer completo y más centrado en módulos repetibles.
AI6 y un contrato multimillonario: capacidad y soberanía industrial en EE. UU.
En paralelo a Dojo, Tesla ya ha dado señales claras con AI6. Samsung anunció un gran acuerdo de fabricación y, posteriormente, Musk vinculó públicamente el contrato a Tesla, indicando que una fábrica de Samsung en Texas (Taylor) produciría el chip AI6. En la documentación pública y la cobertura económica se ha hablado de un volumen de contrato de 22,76 billones de wones (en torno a 16.500 millones de dólares), una cifra que, por sí sola, retrata la magnitud del plan: no se trata de un experimento, sino de reservar capacidad a escala para una plataforma que Tesla quiere desplegar en múltiples líneas de producto.
El mensaje implícito es doble. Por un lado, asegurar suministro en un momento en que la demanda de nodos avanzados y empaquetado “de frontera” se ha vuelto un cuello de botella global. Por otro, situar parte del esfuerzo en Estados Unidos, alineado con una tendencia más amplia: atraer fabricación avanzada al país con incentivos y grandes clientes ancla.
¿Y TSMC? Una transición con matices, no un corte limpio
Aunque algunos titulares han interpretado estos movimientos como una ruptura total, la foto que emerge de distintas informaciones es más matizada. Musk ha señalado en diferentes momentos una estrategia de doble proveedor para ciertas generaciones, con presencia tanto de Samsung como de TSMC según el chip y el calendario. De hecho, el propio mercado ha leído AI5/AI6 como una etapa en la que Tesla intenta maximizar opciones: rendimiento, coste, capacidad y riesgo.
Ese matiz es importante para entender la lógica empresarial: depender de un único fabricante puede ser eficiente cuando todo va bien, pero es un riesgo cuando se compite en ciclos cada vez más cortos. Con un plan de iteración acelerada, cualquier retraso —en yields, ramp-up, packaging o validación— puede comprometer un lanzamiento.
Dojo 3 vuelve al tablero: de proyecto “en pausa” a pieza de la plataforma interna
La narrativa de Dojo también ha girado. En 2025, varias informaciones indicaron que Tesla estaba reorganizando el esfuerzo de Dojo y concentrándose en chips de nueva generación, apoyándose más en proveedores externos para entrenamiento mientras consolidaba su silicio. Sin embargo, el inicio de 2026 ha traído un mensaje en sentido contrario: con AI5 “encarrilado”, Musk ha sugerido que Tesla retoma el trabajo en Dojo 3. En otras palabras: Dojo no desaparece, sino que cambia de función. Menos proyecto aislado, más parte de un ecosistema donde el silicio propio (AI5/AI6 y sucesores) debe poder escalar desde el borde hasta el centro de datos.
La ambición final se parece a una integración vertical extrema: Tesla diseñando el chip, definiendo su empaquetado y orquestando su despliegue en coche, robot y clúster. Es un planteamiento caro, complejo y con riesgos técnicos, pero también coherente con el tipo de ventaja que Musk busca: no depender de la hoja de ruta de NVIDIA, AMD o terceros cuando el negocio pivota hacia la Inteligencia Artificial aplicada.
Preguntas frecuentes
¿Qué son los chips AI5 y AI6 de Tesla y para qué se usarán?
Son procesadores de Tesla pensados para acelerar tareas de Inteligencia Artificial en sus productos. La compañía los vincula a sistemas de conducción asistida, robótica humanoide y, a mayor escala, infraestructura de entrenamiento y cómputo en servidores.
¿Por qué el empaquetado avanzado (como System-on-Wafer o EMIB) es tan importante en Dojo?
Porque determina cómo se conectan múltiples chips para comportarse como un sistema de gran tamaño. En entrenamiento de modelos, la interconexión y el ancho de banda entre dies influyen directamente en el rendimiento y la eficiencia energética del conjunto.
¿Tesla está abandonando a TSMC por Samsung e Intel?
La información disponible apunta más a diversificación que a un abandono total: Tesla busca combinar socios según generación, capacidad y necesidades de fabricación y empaquetado, reduciendo el riesgo de depender de un único proveedor.
¿Es realista un ciclo de diseño de chips de 9 meses?
Es una meta muy agresiva para la industria. Tesla lo plantea como objetivo para acelerar iteraciones, pero la viabilidad depende de factores como complejidad del nodo, verificación, yields, herramientas EDA, y disponibilidad de empaquetado y test a escala.
Fuente: Jukan X