Apple está intentando resolver, a la vez, dos ecuaciones que casi siempre chocan en el mundo de la Inteligencia Artificial: avanzar rápido sin perder el control. En el corto plazo, la compañía ha aceptado una realidad incómoda para cualquiera que aspire a dominar su propia plataforma: para que Siri y Apple Intelligence den un salto creíble, puede ser necesario apoyarse —al menos temporalmente— en modelos punteros de terceros. En paralelo, Apple estaría acelerando el plan que mejor se le da: integrar hardware, software y servicios con tecnología propia, esta vez con un objetivo claro en la trastienda de la IA: los chips de servidor para inferencia.
La pista más visible de esa estrategia híbrida llegó con el anuncio de una colaboración entre Apple y Google. En un comunicado conjunto difundido en 2024, ambas compañías indicaron que “la próxima generación de Apple Foundation Models se basará en los modelos Gemini de Google y en la tecnología cloud”, subrayando además compromisos de privacidad como que los datos del usuario no se usarían para entrenar los modelos. Ese movimiento se interpretó como un “puente” para sostener la evolución de experiencias como Siri mientras Apple madura su propio stack de IA.
Pero Apple no parece querer vivir permanentemente en un esquema de dependencia. La compañía ya ha mostrado en otras transiciones —de Intel a Apple Silicon, o en su camino hacia el 5G— que prefiere “alquilar” soluciones solo el tiempo imprescindible. En IA, el incentivo es incluso mayor: el modelo y la experiencia ya no son una capa más del producto, sino el motor que define qué puede hacer el dispositivo, cómo se integra con el sistema operativo y qué valor percibe el usuario.
Ahí encaja el segundo movimiento: chips de servidor diseñados por Apple para IA. Reuters informó de que Apple trabajaba con Broadcom en un chip orientado a servidores de IA, con nombre en clave “Baltra”, con vistas a entrar en producción en 2026. El objetivo no sería sustituir el procesamiento en el iPhone o el Mac, sino reforzar la inferencia en backend: responder a peticiones, ejecutar modelos, filtrar y organizar información, y sostener picos de demanda con costes y consumo más predecibles.
La elección de Broadcom no sería casual. En el ecosistema de centros de datos, Broadcom tiene un peso enorme en interconexión, redes y silicio especializado. Para Apple, contar con un socio de ese perfil puede acortar el camino desde la idea al despliegue real, especialmente cuando el cuello de botella del sector ya no está solo en la GPU: también está en la energía, la refrigeración, el packaging avanzado, el rendimiento por vatio y la logística para escalar capacidades sin disparar la factura.
Este plan de silicio propio se alinea con otra pieza que Apple ya ha puesto sobre la mesa: infraestructura de “Private Cloud Compute” como parte de Apple Intelligence. La compañía ha defendido que ciertas tareas de IA se ejecuten en el dispositivo, y que solo cuando sea necesario se escalen a cloud bajo un enfoque más controlado. En esa línea, distintos anuncios sobre inversión industrial en EE. UU. incluyeron planes para fabricar servidores en Houston con destino a esa capa de computación privada, con envíos previstos a partir de 2026. El mensaje es claro: Apple quiere que la parte “cloud” de su IA se parezca, en filosofía, a su parte “on-device”: integrada, auditada y con diseño propio.
En el mercado, este giro tiene implicaciones que van más allá de Apple. Si los chips “tipo Baltra” prosperan, se refuerza una tendencia que ya está redefiniendo el sector: las grandes plataformas quieren controlar el coste unitario de cada respuesta de IA, el consumo eléctrico por inferencia y la latencia de extremo a extremo. No es solo una carrera de modelos; es una carrera de infraestructura.
También hay un factor reputacional: cuando una compañía promete una experiencia de IA “nativa”, la presión por cumplir es enorme. En 2026, el listón ya no es “que funcione”, sino que funcione rápido, con buen contexto, con respuestas útiles y con garantías de privacidad. De ahí que Apple parezca apostar por un enfoque pragmático: alianza táctica para ganar tiempo, e integración vertical para no quedarse atrapada.
En resumen: Apple está jugando a dos velocidades. En la interfaz, busca acelerar capacidades con apoyo de Gemini. En la base, estaría preparando el terreno para que su IA sea sostenible a escala: servidores, eficiencia, control de costes y silicio propio. Si el plan sale bien, la “IA de Apple” dejará de ser una función para convertirse en una plataforma completa, con el mismo ADN que hizo posible Apple Silicon.
A quick take on the Apple–Google AI partnership
— 郭明錤 (Ming-Chi Kuo) (@mingchikuo) January 13, 2026
I was on the MM Podcast about a month and a half ago, where we talked about the Apple–Google AI partnership. Here are the main takeaways from that part of the conversation (from ~38:50 to 45:20). I’ve lightly edited the text below… https://t.co/gHgHg8tMmc
Preguntas frecuentes (FAQ)
¿Qué es un chip de servidor para inferencia en IA y por qué importa?
Es el procesador que ejecuta modelos ya entrenados para generar respuestas (inferir). Importa porque determina coste por consulta, latencia, consumo eléctrico y capacidad para escalar usuarios.
¿Qué significa que Apple use Gemini y, a la vez, desarrolle chips propios?
Que intenta ganar rapidez a corto plazo (modelos punteros) sin renunciar al control a medio plazo (infraestructura y silicio propio), reduciendo dependencia tecnológica y optimizando costes.
¿En qué se diferencia la IA “on-device” de la IA en cloud en Apple Intelligence?
La on-device se ejecuta en el propio dispositivo (más privacidad, menos latencia). La cloud se usa para tareas más pesadas, y Apple plantea hacerlo con una capa de computación privada para mantener estándares de seguridad y privacidad.
¿Cuándo podrían llegar los chips de servidor “Baltra” a producción?
Según lo publicado por Reuters sobre el proyecto, el objetivo apuntaba a 2026, aunque los calendarios de silicio pueden moverse por capacidad de fabricación y prioridades del producto.