Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

Avances en IA Multimodal en Dispositivos Móviles con Arm y Alibaba

La colaboración entre Arm y Alibaba ha llevado la inteligencia artificial multimodal a un nuevo nivel en dispositivos móviles. Gracias a la integración de Arm KleidiAI en el marco de aprendizaje profundo MNN, desarrollado por Alibaba, se han logrado mejoras de hasta 57% en el procesamiento de tareas de IA multimodal en el borde. Esto permite experiencias más rápidas y eficientes en aplicaciones como chatbots y búsqueda visual en e-commerce.


Optimización de IA en el borde con KleidiAI

Las aplicaciones de IA multimodal son cada vez más comunes, combinando texto, imágenes, audio y video para ofrecer respuestas más precisas y contextuales. Sin embargo, ejecutarlas en dispositivos móviles supone un reto debido a las limitaciones de potencia y memoria.

Para resolverlo, KleidiAI ofrece optimizaciones que aceleran la inferencia de modelos de IA en CPUs Arm sin necesidad de ajustes adicionales por parte de los desarrolladores. Esta tecnología ya ha sido integrada en marcos populares como ExecuTorch, Llama.cpp, LiteRT y MediaPipe, y ahora también en MNN de Alibaba.

La optimización permite que el modelo Qwen2-VL-2B-Instruct, un modelo de 2.000 millones de parámetros diseñado para comprensión de imágenes y generación multimodal en múltiples idiomas, funcione de manera eficiente en dispositivos móviles.


Mejoras en la velocidad y eficiencia

La integración de KleidiAI en MNN ha resultado en:

57% de mejora en el pre-fill – Optimización del procesamiento de entradas múltiples antes de generar una respuesta.
28% de mejora en la decodificación – Reducción del tiempo necesario para generar texto a partir de la entrada procesada.
Menor costo computacional – Reducción del consumo de recursos en dispositivos con hardware limitado.

Estas mejoras permiten experiencias de usuario más fluidas en chatbots, asistentes virtuales y búsqueda de productos mediante imágenes.


Demostración en MWC 2025

En el Mobile World Congress 2025, Arm y Alibaba presentarán estas mejoras en el stand de Arm (Hall 2, Stand I60). La demo mostrará cómo el modelo Qwen2-VL-2B-Instruct interpreta texto e imágenes y genera respuestas en tiempo real, ejecutándose en smartphones con el chip MediaTek Dimensity 9400.


Un paso adelante en la IA móvil

La integración de KleidiAI en MNN representa un avance significativo en el desarrollo de IA en el borde, permitiendo que modelos complejos funcionen en dispositivos con potencia limitada.

Con estas optimizaciones, millones de desarrolladores podrán crear aplicaciones de IA multimodal más eficientes, acercando la inteligencia artificial avanzada a los usuarios móviles y marcando el camino para la próxima generación de computación inteligente.

vía: ARM

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO