Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

AMD democratiza la inteligencia artificial con soporte local para los modelos GPT-OSS de OpenAI

El nuevo procesador Ryzen AI Max+ 395 permite ejecutar el modelo GPT-OSS 120B directamente desde un portátil, marcando un hito en la computación de IA de consumo.

OpenAI ha dado un paso decisivo en la apertura de la inteligencia artificial avanzada con el lanzamiento de sus modelos GPT-OSS 20B y GPT-OSS 120B, modelos de lenguaje con pesos abiertos diseñados para ofrecer capacidades de razonamiento complejo y ejecución local. En paralelo, AMD ha anunciado soporte nativo desde el primer día para estos modelos en su ecosistema de hardware, posicionando a sus procesadores Ryzen AI Max+ y gráficas Radeon RX como las primeras soluciones de consumo capaces de manejar esta carga de trabajo intensiva en recursos.

GPT-OSS: modelos abiertos para una IA más accesible

Los modelos GPT-OSS (Open Source Sibling) se presentan como los sucesores con pesos abiertos de GPT-2, con un enfoque centrado en la transparencia, reproducibilidad y el uso local sin dependencias de la nube. El modelo GPT-OSS 20B, con 20.900 millones de parámetros (de los cuales 3.600 millones están activos simultáneamente), está diseñado para tareas exigentes de lenguaje natural en tiempo real, siendo más accesible a nivel de hardware. Por su parte, GPT-OSS 120B representa un salto cualitativo, con 116.800 millones de parámetros totales y 5.100 millones activos, ofreciendo capacidades comparables a modelos de centros de datos, pero con posibilidad de ejecución en equipos personales de última generación.

AMD Ryzen AI Max+ 395: el primer procesador de consumo que ejecuta GPT-OSS 120B

AMD ha logrado posicionarse a la vanguardia de esta revolución con su nuevo procesador Ryzen AI Max+ 395, integrado en dispositivos delgados y ligeros como el ASUS ROG Flow Z13. Con una memoria total de 128 GB (incluyendo 96 GB de memoria gráfica dedicada), este procesador es el único del mercado capaz de ejecutar el modelo GPT-OSS 120B de forma local y con un rendimiento útil para tareas reales.

Según las pruebas internas realizadas por AMD en agosto de 2025, el chip alcanza velocidades sostenidas de hasta 30 tokens por segundo, lo que lo sitúa como una opción viable para desarrolladores, investigadores y usuarios avanzados que buscan trabajar con modelos de lenguaje de gran escala sin necesidad de servidores remotos.

amd ryzen ai pro 300

Además, el soporte para Model Context Protocol (MCP) permite mantener contextos conversacionales extendidos y cargas de trabajo complejas, algo hasta ahora reservado a infraestructuras cloud con gran capacidad de memoria.

Compatibilidad total con GPUs Radeon para el modelo GPT-OSS 20B

Para quienes buscan una solución de escritorio más accesible pero igualmente potente, la tarjeta gráfica AMD Radeon RX 9070 XT de 16 GB ofrece un rendimiento sobresaliente al ejecutar el modelo GPT-OSS 20B. Esta configuración no solo garantiza velocidades de generación rápidas, sino que también reduce significativamente el TTFT (Time To First Token), mejorando la experiencia en aplicaciones interactivas o en agentes de IA locales que requieren respuestas inmediatas.

Otros modelos compatibles incluyen Radeon RX 7000, Radeon RX 9000 y Radeon AI PRO R9000, siempre que cuenten con al menos 16 GB de VRAM.

Ejecutar GPT-OSS localmente con LM Studio y AMD

AMD ha facilitado una guía paso a paso para que los usuarios puedan descargar, configurar y ejecutar estos modelos con facilidad mediante LM Studio, el entorno de inferencia local compatible. El proceso incluye:

  1. Instalación de drivers AMD Adrenalin Edition 25.8.1 WHQL o superior.
  2. En el caso de procesadores Ryzen AI, ajuste de Variable Graphics Memory (VGM) desde el panel de AMD Software.
  3. Descarga de LM Studio e instalación del modelo GPT-OSS correspondiente (20B o 120B).
  4. Activación de la inferencia por GPU y carga manual de parámetros.
  5. Comienzo de sesiones de chat con inferencia completamente local.

¿Por qué este hito es importante?

Hasta ahora, modelos de lenguaje con más de 100.000 millones de parámetros requerían infraestructura de centros de datos con GPUs especializadas (como NVIDIA A100 o H100), acceso a plataformas como Azure o AWS, y elevados costes operativos. Con esta nueva generación de procesadores de AMD, la inferencia de IA de gran escala se traslada al escritorio personal, lo que abre las puertas a aplicaciones locales más privadas, seguras y sin dependencia de terceros.

Además, esta capacidad refuerza el compromiso de AMD con una estrategia de inteligencia artificial completa, desde el edge computing hasta el cliente final, pasando por soluciones de nube híbrida y procesamiento local, lo que le permite competir directamente con otras grandes tecnológicas del sector.


📌 Preguntas frecuentes (FAQ)

¿Qué es el modelo GPT-OSS 120B de OpenAI?
GPT-OSS 120B es un modelo de lenguaje con pesos abiertos y 116.800 millones de parámetros. Está diseñado para tareas complejas de razonamiento, inferencia local y aplicaciones avanzadas de IA generativa, y puede ejecutarse de forma nativa en dispositivos AMD Ryzen AI Max+ 395.

¿Qué hardware se necesita para ejecutar GPT-OSS 20B o 120B?
Para GPT-OSS 20B se requiere una GPU AMD Radeon con al menos 16 GB de memoria (como la RX 9070 XT). Para GPT-OSS 120B, se necesita el procesador AMD Ryzen AI Max+ 395 con 128 GB de RAM y al menos 61 GB de memoria gráfica.

¿Qué es el Model Context Protocol (MCP)?
MCP es una técnica que permite mantener una mayor cantidad de contexto conversacional durante la ejecución de modelos LLM, mejorando la coherencia y profundidad de las respuestas. Los procesadores Ryzen AI Max+ y las GPUs compatibles de AMD lo soportan.

¿Dónde se pueden descargar los modelos GPT-OSS y cómo se ejecutan?
Se pueden ejecutar a través de la herramienta LM Studio. AMD ha publicado una guía detallada para descargar los modelos, configurar la GPU y comenzar a utilizar los modelos GPT-OSS directamente desde el PC, sin conexión a la nube.

Fuente: AMD y Noticias inteligencia artificial

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×