Intel ha puesto una nueva pieza sobre el tablero de la Inteligencia Artificial en centros de datos. En el OCP Global Summit 2025, la compañía anunció Crescent Island, el nombre en clave de su próxima GPU para centros de datos optimizada para inferencia, con un enfoque claro: más capacidad de memoria por vatio, refrigeración por aire en servidores empresariales y una pila de software abierta que facilite el despliegue a gran escala. En palabras del CTO de Intel, Sachin Katti, la IA se mueve de entrenamientos estáticos a inferencia en tiempo real y en todas partes, impulsada por la llamada IA agéntica. Y si el presente es inferir —no solo entrenar—, la infraestructura debe cambiar de marcha.
Lejos del brillo publicitario de los récords en entrenamiento, Crescent Island apunta a la economía real de la inferencia: latencia, rendimiento por vatio, capacidad de memoria para contextos largos y coste total de propiedad. Para ello, Intel combinará microarquitectura Xe3P (orientada a eficiencia energética), 160 GB de memoria LPDDR5X directamente en la tarjeta y soporte para una amplia gama de tipos de datos —un guiño a quienes exprimen precisiones reducidas en LLMs y a proveedores de “tokens-as-a-service”—. La compañía prevé muestras para clientes en la segunda mitad de 2026 y sigue madurando la pila de software unificada y abierta en GPUs Arc Pro Serie B, con el objetivo de llegar a Crescent Island con ecosistema y bibliotecas templadas desde el primer día.
Por qué una GPU «para inferencia» ahora
La conversación de 2023–2025 ha estado dominada por entrenamientos colosales; sin embargo, el consumo masivo sucede en inferencia: millones de peticiones concurrentes con ventanas de contexto cada vez mayores, cadenas de herramientas, agentes que llaman APIs y costes sensibles al token. Ahí es donde los centros de datos pelean por más throughput por rack, menor consumo y una pila de software que no friccione.
Intel sitúa Crescent Island justo en ese cruce:
- Eficiencia energética como primera palanca (Xe3P).
- Capacidad de memoria local como segunda (160 GB LPDDR5X) para alojar modelos y KV-caches más grandes sin penalizaciones de ida y vuelta.
- Amplio soporte de tipos de datos para ajustar precisión y coste por tarea y por cliente.
- Refrigeración por aire en servidores empresariales, una decisión pragmática para desplegar rápido sin rediseñar la sala.
Esta combinación persigue “margen de eficiencia” en un momento en el que los volúmenes de tokens crecen y el capex/opex de la inferencia empieza a dictar qué servicios de IA son sostenibles y cuáles no.
160 GB de LPDDR5X: capacidad antes que exotismo
Una de las decisiones más llamativas es el uso de LPDDR5X en lugar de memorias exóticas. La capacidad total —160 GB— es el dato que destaca. Para modelos cuantizados, mezclas de expertos y contextos largos, disponer de más memoria local reduce cache misses y tráfico de red, ayuda a mantener KV-caches y empaquetar reuniones de tokens con menos fragmentación.
¿Pierde ancho de banda frente a otras soluciones? Intel no ha publicado cifras, y el anuncio no entra en comparativas; lo que sí queda claro es la apuesta por el equilibrio: capacidad×eficiencia×aire con coste contenido para que el TCO por token cierre cuentas.
Microarquitectura Xe3P: rendimiento por vatio en el centro
El comunicado sitúa Xe3P como motor de la eficiencia por vatio. Para cargas de inferencia, escalabilidad horizontal y concurrencia pesan tanto como el pico de FLOPS. La promesa de Intel pasa por combinar Xe3P con:
- Amplio soporte de tipos de datos (desde formatos de alta precisión hasta precisiones reducidas orientadas a LLMs).
- Orquestación abierta en una pila unificada para sistemas heterogéneos (CPU Xeon 6, GPUs Intel y, llegado el caso, otros aceleradores).
- Sistemas pensados para aire, minimizando fricción operativa en servidores estándar.
La compañía viene probando y endureciendo la pila en Arc Pro Serie B precisamente para empaquetar optimizaciones (compiladores, kernels, runtime) antes de que Crescent Island llegue a manos de los primeros clientes.
Software abierto y sistemas heterogéneos: la otra mitad de la historia
Intel insiste en que la inferencia no se resuelve solo con un chip. Hace falta un sistema heterogéneo y una pila de software abierta para asignar la tarea adecuada al silicio adecuado. En la práctica, planificadores, runtimes y compiladores que entiendan tamaños de lote, KV-cache, prefill/decoding, agentes y operadores especializados; así como telemetría a nivel de rack para mover cargas en caliente.
Ese énfasis encaja con el espíritu del Open Compute Project (OCP): especificaciones abiertas de hardware y operación, y una cultura que facilita la interoperabilidad. El mensaje de Intel a los operadores es que no habrá “silos”: la GPU se integra en sistemas abiertos y orquestaciones que conviven con Xeon 6 y otras piezas ya desplegadas.
Aire, no líquido: una decisión de despliegue
Otra clave del anuncio es la elección deliberada de refrigeración por aire. En 2025, muchos operadores no han migrado sus salas a líquido; introducir aceleradores aire-first reduce el tiempo de llegada a producción, evita modificar pasillos térmicos y acorta el camino entre POC y escala. Crescent Island se coloca, por tanto, como opción para granjas existentes que necesitan más inferencia sin obras mayores.
La hoja de ruta: cuándo y cómo
Intel anticipa muestras para clientes en la segunda mitad de 2026. Hasta entonces, el trabajo clave será madurar la pila (compiladores, librerías, drivers), perfilar cargas reales —LLMs con contextos largos, RAG, agentes— y ajustar costes de sistemas aire-cooled con gran capacidad de memoria por GPU.
En paralelo, la empresa subraya su oferta de extremo a extremo: de la AI PC (cliente) al centro de datos, pasando por edge industrial, todo ello sobre Xeon 6 y GPUs Intel. Quien quiera quedarse con una idea fuerza del anuncio, que sea esta: la inferencia manda, y Crescent Island nace para ese mundo.
Qué puede significar para operadores y desarrolladores
Para operadores de centros de datos
- Capacidad local (160 GB) para modelos cuantizados y ventanas de contexto amplias sin sobrerreliance de red.
- Aire acondicionado convencional y densidades compatibles con salas existentes.
- Pila abierta que facilite integración con observabilidad y orquestación ya desplegadas.
Para equipos de plataforma y MLOps
- Amplio soporte de tipos de datos para balancear calidad/coste por despliegue.
- Runtimes unificados entre CPU y GPU que reduzcan la fricción del multi-target.
- Camino de adopción práctica: desarrollar y probar optimizaciones ahora en Arc Pro Serie B, con portabilidad hacia Crescent Island.
Para quienes venden IA como servicio
- Mensaje específico a proveedores “tokens-as-a-service”: eficiencia por token y capacidad para KV-cache más grande, claves en contratos con SLA de latencia y coste predecible.
Lo que Intel no ha dicho (y que todos preguntarán)
El anuncio no incluye benchmarks ni comparativas de ancho de banda o TOPS/FLOPS frente a otras soluciones. Tampoco cifras concretas de consumo de placa o densidad por rack. En la feria, los visitantes del stand de Intel (Expo Hall #B3) podrán pedir más contexto, pero el mensaje de lanzamiento es claramente de posicionamiento: arquitectura Xe3P, 160 GB LPDDR5X, aire, pila abierta y roadmap a 2026.
Señales a vigilar en 2026
- Madurez del stack: compiladores, kernels y librerías afinados para prefill/decoding, KV-cache y operadores de RAG.
- Modelos de referencia: LLMs y VLMs corriendo out-of-the-box con plantillas de rendimiento y guías de coste.
- Integración con Xeon 6 y telemetría unificada para ajuste dinámico de cargas heterogéneas.
- TCO por token: el indicador que, a la postre, decidirá qué aceleradores ganan en inferencia masiva.
Conclusión
Con Crescent Island, Intel responde a la pregunta clave de 2025: ¿cómo escalar la inferencia sin disparar el coste y sin rehacer el data center? La receta combina eficiencia por vatio (Xe3P), capacidad de memoria (160 GB LPDDR5X), soporte de datos flexible, refrigeración por aire y una pila de software abierta y unificada. Falta ver benchmarks, precios y fechas comerciales más próximas, pero la dirección es nítida: la IA se gana en la inferencia, y ahí es donde Intel quiere competir.
Preguntas frecuentes
¿Qué es exactamente Intel Crescent Island y para qué está pensada?
Es la próxima GPU de centros de datos de Intel optimizada para inferencia de IA, con microarquitectura Xe3P, 160 GB de LPDDR5X y soporte para múltiples tipos de datos. Está diseñada para servidores empresariales con refrigeración por aire y para sistemas heterogéneos junto a Intel Xeon 6.
¿Cuándo habrá disponibilidad de Crescent Island?
Intel prevé muestras para clientes en la segunda mitad de 2026. Hasta entonces, la pila de software abierta y unificada se está desarrollando y probando sobre GPUs Arc Pro Serie B para llegar madura al lanzamiento.
¿Por qué 160 GB de LPDDR5X en una GPU para IA?
Porque la capacidad de memoria local es crítica en inferencia: permite alojar modelos cuantizados, KV-caches amplias y contextos largos sin penalizar latencia con accesos externos. LPDDR5X aporta un buen equilibrio entre capacidad, eficiencia energética y coste en tarjetas aire-cooled.
¿La pila de software será abierta? ¿Qué implica “sistema heterogéneo”?
Sí. Intel impulsa una pila abierta y unificada para CPU y GPU que permita asignar la tarea adecuada al silicio adecuado (por ejemplo, prefill en un recurso, decoding en otro), facilitar el MLOps y mantener continuidad para desarrolladores. La meta es simplificar despliegues y escalar sin bloquearse en un único proveedor o formato.