SEMIFIVE e ICY Tech han anunciado el tape-out de un nuevo SoC de Edge AI basado en memoria eMRAM de 8 nm, desarrollado con tecnología 8LPU de Samsung Foundry. El hito acerca a Asia a la primera comercialización de esta tecnología en chips de inteligencia artificial para dispositivos de bajo consumo, un terreno que empieza a ganar peso con los AI PCs, los agentes privados, la robótica y los sistemas inteligentes que deben operar sin depender siempre de la nube.
El anuncio es relevante porque apunta a uno de los grandes límites del Edge AI: cómo ejecutar modelos cada vez más capaces en dispositivos con restricciones de energía, espacio y conectividad. SEMIFIVE e ICY Tech aseguran que su arquitectura puede soportar inferencia en el propio dispositivo para modelos de hasta 2.000 millones de parámetros. En esa escala ya entran tareas prácticas como resumen de textos, traducción o conversación básica sin conexión permanente a Internet.
eMRAM: una memoria no volátil para chips de IA más eficientes
La memoria es una de las piezas más delicadas en los chips de inteligencia artificial. No basta con tener unidades de cálculo rápidas; también hay que mover datos con eficiencia. En dispositivos de borde, donde el consumo y el área del chip importan mucho, la elección de la memoria puede marcar la diferencia.
La eMRAM, o embedded Magnetic Random Access Memory, es una variante integrada de MRAM dentro de un SoC. A diferencia de la DRAM, no necesita operaciones periódicas de refresco para conservar los datos. A diferencia de la memoria flash, se presenta como una opción más rápida para determinados usos embebidos. Y frente a la SRAM, puede ofrecer mayor densidad en el mismo espacio al utilizar una celda de bit más pequeña, según explican las compañías.
Su rasgo más importante es la no volatilidad: conserva los datos incluso cuando se corta la alimentación. Esto la hace atractiva para dispositivos que deben despertarse rápido, consumir poco en reposo o mantener información crítica sin gastar energía continuamente. En Edge AI, donde muchas cargas se ejecutan cerca del usuario o de la máquina, esa característica puede ayudar a reducir consumo y mejorar tiempos de respuesta.
Samsung Foundry lleva años desarrollando eMRAM como tecnología especial de memoria no volátil integrada. Su documentación pública la presenta como una solución compatible con lógica CMOS, con ventajas en velocidad, fiabilidad a alta temperatura, densidad y ahorro energético. La hoja de ruta de Samsung también contempla la expansión de eMRAM hacia procesos FinFET más avanzados, incluido 8 nm.
Un SoC pensado para IA sin conexión permanente
El proyecto combina la tecnología Processing Near Memory (PNM) de ICY Tech con la plataforma de diseño SoC de SEMIFIVE. La idea es acercar el cálculo a la memoria para reducir movimientos de datos y mejorar la eficiencia en tareas de inferencia. ICY Tech aporta su experiencia en magnetismo, espintrónica y circuitos MRAM, además de diseños de aceleración para lectura de alto ancho de banda y multiplicación matriz-vector in situ.
SEMIFIVE, por su parte, se ha encargado de convertir esa arquitectura en silicio listo para producción. La compañía surcoreana es Design Solution Partner dentro del ecosistema Samsung Foundry SAFE y trabaja en proyectos ASIC personalizados para IA, HPC y Edge AI. Este es su primer proyecto de diseño ASIC basado en eMRAM, lo que amplía su cartera hacia arquitecturas que combinan memoria avanzada y aceleración de IA.
El objetivo comercial está claro: dispositivos que necesiten ejecutar modelos de IA en local, con baja latencia y sin enviar datos constantemente a servidores externos. Esto encaja con AI PCs, asistentes privados, robots humanoides, electrónica de automoción, cabinas digitales, sistemas de conducción autónoma y dispositivos inteligentes. En todos esos casos, la privacidad, la respuesta rápida y la disponibilidad offline pueden ser tan importantes como la potencia bruta.
| Elemento | Qué aporta al proyecto |
|---|---|
| Samsung Foundry 8LPU | Proceso de 8 nm utilizado para fabricar el SoC |
| eMRAM | Memoria no volátil integrada, con menor consumo en reposo |
| ICY Tech | Arquitectura PNM, MRAM personalizada y aceleración para inferencia |
| SEMIFIVE | Diseño ASIC completo y conversión a silicio listo para producción |
| Edge AI | Ejecución local de modelos sin depender siempre de la nube |
| Hasta 2B parámetros | Escala anunciada para tareas como resumen, traducción y conversación |
Por qué importa para robots, AI PCs y automoción
El Edge AI está dejando de ser una categoría secundaria. Durante años, gran parte de la inteligencia artificial avanzada ha dependido de centros de datos. Esa arquitectura seguirá siendo esencial para entrenar grandes modelos y servir aplicaciones complejas, pero no siempre es suficiente. Hay usos donde enviar datos a la nube añade latencia, consumo, coste, dependencia de red o riesgos de privacidad.
Un robot humanoide, por ejemplo, no puede esperar siempre a que una respuesta viaje hasta un servidor remoto y vuelva. Un vehículo necesita tomar decisiones con baja latencia. Un ordenador personal con IA integrada puede ofrecer más privacidad si algunas tareas se ejecutan en local. Un agente privado en una empresa puede necesitar trabajar sobre datos sensibles sin exponerlos a servicios externos.
Ahí tecnologías como eMRAM y PNM pueden tener sentido. Reducir el movimiento de datos dentro del chip es una de las formas más directas de ahorrar energía. En IA, muchas operaciones no están limitadas solo por el cálculo, sino por la transferencia constante de pesos y activaciones. Si parte de ese trabajo se acerca a la memoria, la eficiencia puede mejorar.
Las compañías presentan este SoC como una forma de superar algunas limitaciones de los diseños edge basados en SRAM, donde el área y el consumo dificultan alojar modelos más grandes en el propio dispositivo. Conviene tomar la afirmación con prudencia hasta ver datos independientes de rendimiento, consumo, coste y producción. El tape-out es un paso importante, pero todavía no equivale a una comercialización masiva ni a validación de mercado.
El chip también refleja una tendencia más amplia: los semiconductores de IA se están especializando. No todo será GPU de centro de datos. Habrá ASICs para inferencia local, NPUs para PC, aceleradores para automoción, chips para robots, memoria avanzada y arquitecturas pensadas para cargas concretas. A medida que la IA se acerque al dispositivo, el diseño a medida ganará peso frente a soluciones genéricas.
Una señal para la carrera asiática del Edge AI
El anuncio tiene además una lectura industrial. Asia quiere ocupar una posición fuerte no solo en fabricación avanzada, sino también en chips personalizados para IA de borde. SEMIFIVE, ICY Tech y Samsung Foundry combinan diseño ASIC, memoria emergente y proceso de fabricación en un producto orientado a aplicaciones comerciales. Si el proyecto avanza hacia producción, podría reforzar el papel de Samsung Foundry en tecnologías eMRAM avanzadas y dar a SEMIFIVE un caso destacado en ASICs con memorias no convencionales.
Para ICY Tech, el tape-out valida el paso desde investigación en magnetismo y espintrónica hacia silicio real. La compañía, incubada desde el Applied Magnetism Center de la Escuela de Física de la Universidad de Pekín, busca diferenciarse con arquitecturas basadas en MRAM para inferencia de alto ancho de banda. En un mercado lleno de NPUs, GPUs compactas y aceleradores propietarios, esa diferenciación puede ser útil si logra demostrar rendimiento por vatio y coste competitivo.
El siguiente paso será comprobar si el chip cumple las promesas fuera del comunicado. Harán falta muestras, pruebas con modelos reales, validación de clientes, costes de fabricación, rendimiento térmico y una ruta clara hacia volumen. En semiconductores, el tape-out marca el cierre del diseño físico y el envío a fabricación, pero la historia comercial empieza después.
La dirección, en cualquier caso, es significativa. La IA local necesita algo más que modelos pequeños. Necesita chips capaces de ejecutar inferencia con eficiencia, memoria integrada que reduzca consumo y arquitecturas adaptadas a tareas concretas. La eMRAM de 8 nm puede convertirse en una de las tecnologías candidatas para esa nueva generación de dispositivos inteligentes.
Preguntas frecuentes
¿Qué han anunciado SEMIFIVE e ICY Tech?
Han anunciado el tape-out de un SoC de Edge AI basado en eMRAM de 8 nm, desarrollado con el proceso 8LPU de Samsung Foundry y orientado a inferencia local de bajo consumo.
¿Qué es eMRAM?
Es memoria magnética integrada en el chip. Conserva los datos sin alimentación, no necesita refresco periódico como la DRAM y puede ayudar a reducir consumo en dispositivos embebidos.
¿Qué significa que soporte modelos de hasta 2B parámetros?
Significa que, según las compañías, la arquitectura puede ejecutar en el propio dispositivo modelos de IA de hasta 2.000 millones de parámetros, suficientes para tareas como resumen, traducción o conversación básica.
¿En qué dispositivos podría usarse esta tecnología?
Las aplicaciones previstas incluyen AI PCs, agentes privados, robots humanoides, automoción, cabinas digitales, conducción autónoma y dispositivos inteligentes que necesiten inferencia local.
vía: prnewswire