SK hynix ha dado un paso técnico relevante en la evolución de la memoria HBM al verificar una pila de 12 capas unida mediante hybrid bonding, una tecnología de empaquetado avanzada que podría ser decisiva para las próximas generaciones de memoria de alto ancho de banda. La compañía surcoreana no ha revelado cifras concretas de rendimiento de fabricación, pero sí ha reconocido que trabaja para elevar el yield hasta un nivel compatible con producción en masa.
El anuncio, realizado por Kim Jong-hoon, líder técnico de SK hynix, durante la conferencia Beyond HBM celebrada en Seúl, llega en plena carrera por HBM4 y HBM5. La demanda de aceleradores de inteligencia artificial ha convertido esta memoria en uno de los componentes más escasos y estratégicos del mercado. NVIDIA, AMD, Google, Amazon y otros diseñadores de chips necesitan cada vez más capacidad, más ancho de banda y menor consumo para alimentar GPUs, TPUs y arquitecturas de IA a gran escala.
Qué aporta el hybrid bonding a la memoria HBM
La memoria HBM se construye apilando varios chips DRAM en vertical y conectándolos mediante TSVs e interconexiones internas. Hasta ahora, las técnicas más extendidas han usado bumps o microbumps para unir capas. Es un enfoque maduro, pero tiene límites físicos: ocupa espacio, añade resistencia, genera calor y complica el aumento de capas sin engordar demasiado el encapsulado.
El hybrid bonding intenta reducir esos límites conectando directamente las superficies de los chips, normalmente mediante contactos cobre-cobre y dieléctrico-dieléctrico. Al eliminar o reducir la dependencia de bumps, permite interconexiones más densas, menor altura de pila, mejor eficiencia eléctrica y, en teoría, menos generación térmica. Para HBM, donde cada milímetro y cada vatio cuentan, esa mejora puede marcar diferencias.
SK hynix ha explicado que ya ha verificado una estructura HBM de 12 capas con hybrid bonding. La compañía no ha dado datos de yield, una omisión importante porque el gran reto de esta tecnología no es demostrar que funciona en laboratorio, sino fabricarla con suficiente rendimiento, coste y repetibilidad. Kim Jong-hoon señaló que las preparaciones están “mucho más avanzadas que en el pasado”, pero evitó entrar en porcentajes.
Esa prudencia tiene sentido. En semiconductores, un proceso puede ser técnicamente viable y, aun así, no ser rentable si demasiadas unidades salen defectuosas. En HBM, el problema se multiplica porque una pila combina muchas capas. Si una de ellas falla, el conjunto puede perder valor o quedar inutilizado. Por eso el yield del empaquetado es tan sensible.
MR-MUF seguirá vivo mientras llega la nueva etapa
SK hynix no abandonará de inmediato su tecnología actual. La compañía seguirá usando MR-MUF, o Mass Reflow Molded Underfill, mientras madura el hybrid bonding. MR-MUF utiliza bumps de cobre y rellena los espacios entre capas con material de underfill después de calentar el conjunto. Ha sido una de las tecnologías clave con las que SK hynix ha ganado terreno en HBM3E y HBM4.
La transición será gradual. HBM4 ya está entrando en producción con técnicas avanzadas de empaquetado, pero hybrid bonding parece más ligado a generaciones posteriores o a variantes más densas. Algunas previsiones de mercado sitúan la adopción más amplia del hybrid bonding en HBM5, hacia 2029 o 2030, cuando la necesidad de apilar más capas y controlar mejor la térmica será todavía mayor.
El contexto técnico ayuda a entender por qué. HBM4 ya supone un salto frente a HBM3E: dobla la interfaz hasta 2.048 bits, aumenta el número de canales y eleva el ancho de banda por pila. La especificación HBM4 publicada por JEDEC contempla más capacidad y configuraciones de hasta 16 capas, con una orientación clara hacia aceleradores de IA y HPC. Para llegar a 16, 20 o más capas en futuras generaciones, las técnicas tradicionales empiezan a quedar más ajustadas.
Aquí es donde hybrid bonding gana atractivo. Cuantas más capas se apilan, más difícil resulta controlar altura, calor, alineamiento y fiabilidad mecánica. Reducir la distancia entre dies y mejorar la conexión eléctrica puede facilitar módulos más densos y rápidos, aunque la fabricación sea más exigente.
La batalla de la HBM se libra en el empaquetado
Durante años, la memoria se explicó sobre todo por proceso de fabricación, capacidad y velocidad. En la era de la IA, el empaquetado avanzado se ha convertido en una parte central del producto. HBM no es solo DRAM rápida: es una estructura 3D compleja que debe convivir con GPU, interposer, sustratos avanzados, lógica base, refrigeración y suministro eléctrico.
SK hynix, Samsung y Micron compiten por asegurar clientes en HBM4 y preparar HBM4E y HBM5. SK hynix parte con ventaja por su posición como proveedor clave de NVIDIA, pero sus rivales están acelerando. Micron ha anunciado avances en HBM4 para plataformas de nueva generación y Samsung intenta recuperar terreno tras varios ciclos en los que SK hynix lideró buena parte de la demanda asociada a IA.
La presión no procede solo de vender más memoria. Procede de cumplir requisitos cada vez más específicos de los grandes diseñadores de aceleradores. NVIDIA, por ejemplo, ha elevado el listón en velocidad, consumo, capacidad, integración y calendario. HBM4 incorpora lógica base personalizada, lo que complica sustituir un proveedor por otro sin rediseños o validaciones adicionales. Esa personalización da valor a quien llega antes, pero también aumenta el coste de equivocarse.
La inversión acompaña esa tensión. SK hynix anunció recientemente una inversión de unos 19 billones de wones, cerca de 12.850 millones de dólares, en una nueva planta en Corea del Sur para responder a la demanda de memoria de IA, con foco en empaquetado avanzado. La compañía también ha señalado que la demanda de HBM de sus clientes para los próximos años supera su capacidad de suministro, lo que sugiere que la escasez no se resolverá rápido.
Por qué importa para los centros de datos de IA
La memoria HBM es uno de los cuellos de botella de la inteligencia artificial moderna. Los grandes modelos no solo necesitan mucha capacidad de cálculo; necesitan alimentar a los aceleradores con datos a enorme velocidad. Si la memoria no entrega suficiente ancho de banda, la GPU o el acelerador pueden quedarse esperando, aunque tengan potencia de sobra.
Por eso los avances en HBM afectan directamente al coste y rendimiento de los centros de datos de IA. Más capas significan más capacidad por pila. Más ancho de banda significa mejor utilización del acelerador. Mejor eficiencia térmica puede reducir consumo y facilitar sistemas más densos. Pero si la tecnología de empaquetado no escala con buen yield, el resultado puede ser memoria más cara y menos disponible.
El hybrid bonding promete resolver parte de esa ecuación, pero no es una solución inmediata ni exenta de retos. Requiere extrema precisión en alineamiento, limpieza de superficies, control de defectos, procesos térmicos y metrología. En una pila HBM, cualquier pequeño fallo puede arruinar el conjunto. Por eso SK hynix habla de avance, no de despliegue masivo confirmado.
La noticia deja una señal clara para el mercado: la próxima frontera de la IA no estará solo en nuevas GPUs, sino en cómo se fabrican, conectan y enfrían las memorias que las alimentan. El rendimiento de una plataforma de IA será cada vez más inseparable del empaquetado avanzado. Y ahí, SK hynix quiere mantener su ventaja antes de que Samsung y Micron cierren la distancia.
Preguntas frecuentes
¿Qué ha verificado SK hynix?
SK hynix ha verificado una pila HBM de 12 capas fabricada mediante hybrid bonding, una tecnología de unión directa entre dies que busca mejorar densidad, rendimiento y eficiencia.
¿Qué es el hybrid bonding en memoria HBM?
Es una técnica de empaquetado que conecta capas de chips de forma más directa, reduciendo o eliminando bumps. Puede mejorar ancho de banda, consumo, altura de pila y gestión térmica.
¿SK hynix ya produce HBM con hybrid bonding en masa?
No. La compañía afirma que trabaja para elevar el yield a un nivel adecuado para producción en masa, pero no ha revelado cifras concretas ni ha confirmado producción comercial con esta tecnología.
¿Por qué es importante para la IA?
Porque los aceleradores de IA dependen de memoria HBM con mucho ancho de banda y alta capacidad. Mejorar el empaquetado puede permitir módulos más densos, rápidos y eficientes para futuras GPUs y sistemas HPC.
vía: wccftech