Durante años, la “IA en el edge” en Raspberry Pi se asoció sobre todo a visión por computador: detectar objetos, estimar poses o segmentar escenas con una cámara y un acelerador dedicado. Pero en 2026 la conversación ha cambiado. La popularidad de los modelos generativos —especialmente los modelos de lenguaje (LLM) y los modelos visión-lenguaje (VLM)— ha trasladado la expectativa del “reconoce lo que ve” al “entiende, responde y asiste”. Y ese salto, hasta ahora, obligaba con frecuencia a pasar por servicios en la nube, con sus costes recurrentes y sus implicaciones de privacidad.
En ese contexto, Raspberry Pi ha presentado la Raspberry Pi AI HAT+ 2, una nueva placa de expansión para Raspberry Pi 5 diseñada específicamente para cubrir el hueco de IA generativa local: ejecutar inferencias sin conexión, con baja latencia y sin necesidad de suscribirse a APIs externas. La propuesta gira alrededor de un cambio clave respecto a la generación anterior: un acelerador nuevo, más potencia de inferencia orientada a GenAI y, sobre todo, memoria dedicada a bordo.
Un salto de enfoque: de “visión acelerada” a “IA generativa local”
La compañía recuerda que el primer AI HAT+ se lanzó algo más de un año antes como un add-on para Raspberry Pi 5 con aceleradores Hailo-8 (26 TOPS) y Hailo-8L (13 TOPS), con la idea de que todo el procesamiento se quedara “en casa”, en el propio dispositivo. Ese diseño permitía construir soluciones con mayor privacidad y sin dependencia de servicios cloud, pero estaba optimizado para redes neuronales de visión y no para el auge de los modelos generativos.
El AI HAT+ 2 nace precisamente para ese nuevo escenario. Monta el Hailo-10H y promete 40 TOPS (INT4) de rendimiento en inferencia, buscando que las cargas de trabajo de IA generativa “encajen” de forma práctica en una Raspberry Pi 5. A ese acelerador se le suma un ingrediente determinante: 8 GB de RAM dedicada integrada en la propia placa, pensada para manejar modelos más grandes que los habituales en edge y descargar a la Raspberry Pi de parte de esa presión de memoria. Además, la ejecución local —sin conexión de red— mantiene el objetivo inicial: baja latencia, privacidad y control de costes frente al consumo de APIs.
En paralelo, Raspberry Pi sostiene que el nuevo HAT no sacrifica el terreno ya ganado en visión: para modelos tipo YOLO, estimación de pose o segmentación de escenas, su rendimiento se mantiene en una línea comparable al AI HAT+ de 26 TOPS, en parte gracias a esa RAM a bordo. La compatibilidad práctica también se cuida: el AI HAT+ 2 conserva la integración con el stack de cámara (libcamera, rpicam-apps y Picamera2), de modo que quienes ya trabajaban con el ecosistema anterior no deberían encontrarse con un cambio traumático.
Tabla comparativa rápida: AI HAT+ vs AI HAT+ 2
| Característica | Raspberry Pi AI HAT+ | Raspberry Pi AI HAT+ 2 |
|---|---|---|
| Acelerador | Hailo-8 / Hailo-8L | Hailo-10H |
| Rendimiento (inferencias) | 26 TOPS / 13 TOPS | 40 TOPS (INT4) |
| Enfoque principal | Modelos de visión | LLM, VLM y GenAI (sin perder visión) |
| RAM dedicada en la placa | — | 8 GB |
| Integración con cámaras | Sí | Sí (libcamera, rpicam-apps, Picamera2) |
| Precio anunciado | — | 130 dólares |
Qué modelos se podrán instalar al lanzamiento
Para aterrizar el concepto, Raspberry Pi detalla que, en el lanzamiento, habrá varios LLM disponibles para instalar (con tamaños ajustados a un entorno de edge). La lista inicial incluye:
- DeepSeek-R1-Distill (1.500 millones de parámetros)
- Llama 3.2 (1.000 millones)
- Qwen 2.5-Coder (1.500 millones)
- Qwen 2.5-Instruct (1.500 millones)
- Qwen 2 (1.500 millones)
La compañía anticipa, además, que llegarán más modelos y de mayor tamaño mediante actualizaciones posteriores.
En las demos, Raspberry Pi utiliza un backend de LLM llamado hailo-ollama y un frontal web tipo chat con Open WebUI, lo que permite operar desde un navegador como si fuese una interfaz de asistente tradicional. Entre los ejemplos mostrados: preguntas y respuestas generales, una tarea de programación con un modelo orientado a código, una traducción sencilla y un caso de VLM describiendo una escena a partir de una cámara en directo. Todo ello ejecutado localmente en una Raspberry Pi 5 con la AI HAT+ 2.
El límite real del edge: modelos pequeños, pero adaptables
Raspberry Pi también pone por escrito una realidad que suele perderse entre titulares: los LLM cloud dominantes operan en otra escala. Según la compañía, los modelos en la nube de actores como OpenAI, Meta o Anthropic se mueven entre 500.000 millones y 2 billones de parámetros, mientras que los modelos pensados para el AI HAT+ 2 suelen quedar en el rango de 1.000 a 7.000 millones para ajustarse a la memoria disponible.
Eso implica una diferencia inevitable: estos modelos “compactos” no buscan competir en amplitud de conocimiento, sino ser útiles dentro de un conjunto de datos y un objetivo más acotados. La apuesta para compensarlo es la personalización: el AI HAT+ 2 soporta fine-tuning con LoRA (Low-Rank Adaptation) y el uso del Hailo Dataflow Compiler para compilar adaptadores y ejecutar modelos ajustados a tareas concretas. En la práctica, esto acerca el producto a un enfoque “industrial” y de producto final: menos promesa genérica, más especialización por caso de uso.
Disponibilidad, montaje y casos de uso
El Raspberry Pi AI HAT+ 2 se vende a 130 dólares y se orienta explícitamente a Raspberry Pi 5, entre otros motivos por su comunicación a través de PCI Express, además del GPIO. El documento técnico menciona también un disipador opcional recomendado para cargas intensivas y fija un objetivo de continuidad de fabricación: el producto permanecerá en producción al menos hasta enero de 2036.
En cuanto a aplicaciones, la idea de “GenAI sin nube” se traduce en escenarios donde la conectividad no siempre es viable o deseable: control de procesos offline, análisis seguro de datos, gestión de instalaciones o robótica, entre otros. No son ejemplos casuales: son precisamente los sectores donde el coste por llamada a un servicio cloud, la latencia o la sensibilidad del dato pueden convertir un prototipo prometedor en una solución inviable.
Preguntas frecuentes
¿Para qué sirve el Raspberry Pi AI HAT+ 2 si ya existía el AI HAT+?
El AI HAT+ original estaba optimizado para modelos de visión (detección de objetos, segmentación, etc.). El AI HAT+ 2 añade un acelerador pensado para IA generativa y suma 8 GB de RAM dedicada, lo que habilita ejecutar LLM y VLM de forma local en Raspberry Pi 5.
¿Qué modelos de lenguaje se pueden instalar al inicio y qué tamaño tienen?
En el lanzamiento se citan modelos como DeepSeek-R1-Distill (1.500 millones), Llama 3.2 (1.000 millones) y varias variantes de Qwen (1.500 millones), con previsión de añadir modelos mayores posteriormente.
¿Qué ventajas aporta ejecutar un asistente local en Raspberry Pi frente a usar una API en la nube?
Principalmente privacidad del dato, menor latencia, funcionamiento sin conexión y control de costes (sin pagos por uso ni dependencia de un proveedor externo), algo especialmente relevante en entornos industriales, educativos o de IoT.
¿Se pueden “personalizar” modelos para tareas concretas con el AI HAT+ 2?
Sí. Raspberry Pi indica soporte para LoRA en ajustes de modelos de lenguaje y el uso del Hailo Dataflow Compiler para compilar adaptadores y ejecutar modelos afinados para necesidades específicas (por ejemplo, traducción, voz a texto o análisis de escenas).
vía: raspberrypi