Red Hat introduce Ramalama: Hacer la Inteligencia Artificial aburrida para facilitar su uso

En la reciente conferencia Flock de Fedora, Red Hat presentó ramalama, un innovador proyecto cuyo objetivo es hacer que la inteligencia artificial (IA) sea «aburrida», en el mejor sentido de la palabra. Esta nueva herramienta promete simplificar el uso de IA y el aprendizaje automático mediante el uso de contenedores OCI (Open Container Initiative), eliminando la complejidad y haciendo que el proceso sea accesible para una audiencia más amplia.

Una filosofía de simplicidad

El proyecto ramalama se destaca por su enfoque en la simplicidad en un campo que suele estar dominado por innovaciones tecnológicas vanguardistas y soluciones complicadas. “En un campo lleno de tecnologías avanzadas y soluciones complejas, ramalama se diferencia por su misión refrescante y simple: hacer que la IA sea aburrida”, explicaron los representantes de Red Hat durante la presentación.

El enfoque de ramalama es ofrecer herramientas que sean confiables y fáciles de usar. La propuesta es que los usuarios puedan realizar tareas relacionadas con la IA, desde la instalación hasta la ejecución, con un solo comando por contexto, facilitando la gestión y despliegue de modelos de IA. Esto incluye el listado, la extracción, la ejecución y el servicio de modelos, con un objetivo claro de evitar complicaciones innecesarias.

Tecnología y compatibilidad

Ramalama aprovecha la tecnología de contenedores OCI para simplificar el uso de modelos de IA. El sistema se inicializa inspeccionando el soporte de GPU del equipo; en ausencia de GPUs, se recurre al soporte de CPU. La herramienta utiliza motores de contenedores como Podman para extraer imágenes OCI que contienen todo el software necesario para ejecutar los modelos de IA, eliminando la necesidad de configuración manual por parte del usuario.

Una característica destacada de ramalama es su compatibilidad con múltiples tecnologías, incluyendo procesadores gráficos (GPU) de NVIDIA, AMD, Intel, ARM, RISC-V y Apple Silicon, aunque actualmente parece estar limitada a arquitecturas x86_64. Los modelos se obtienen del registro Ollama por defecto, mientras que llama.cpp y Podman forman parte de la infraestructura tecnológica que respalda a ramalama.

Soporte para diversos sistemas operativos

Ramalama no solo está diseñado para soportar diversas arquitecturas de hardware, sino también para ser compatible con varios sistemas operativos. Además de Linux, que será oficialmente compatible, la tecnología también está preparada para funcionar en macOS y, posiblemente, en Windows a través de WSL (Windows Subsystem for Linux). En caso de que el soporte para GPU no esté disponible, ramalama recurrirá al uso de la CPU.

Futuro y accesibilidad

Actualmente en una fase temprana de desarrollo, el código fuente de ramalama ya está disponible en GitHub bajo la licencia MIT. La herramienta inicia su andadura en Fedora, una distribución de Linux que actúa como banco de pruebas para tecnologías que podrían integrarse en Red Hat Enterprise Linux. La adopción de ramalama por parte de Fedora sugiere que podría extenderse a otras distribuciones principales si resulta exitosa.

Con ramalama, Red Hat busca democratizar el acceso a la IA al hacerla más accesible y menos intimidante, permitiendo que incluso aquellos con menos experiencia en el campo puedan aprovechar el poder de la inteligencia artificial. El objetivo es que la tecnología se vuelva tan sencilla y accesible que su uso se convierta en una experiencia placentera y sin complicaciones.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Subscription Form (#5)

LO ÚLTIMO