
LM Studio impulsa la IA local: así acelera la inferencia con GPUs RTX y CUDA 12.8
En un contexto donde la inteligencia artificial generativa se convierte en parte del día a día de desarrolladores, investigadores y usuarios avanzados, la posibilidad de ejecutar modelos de lenguaje (LLM) localmente ha pasado de ser una opción experimental a una alternativa madura, potente y con ventajas claras. En esta transformación, LM Studio se posiciona como uno de los entornos más versátiles y accesibles para ejecutar modelos de IA en local, sin depender de servicios en la nube. Con la llegada de su versión 0.3.15, LM Studio se integra de forma nativa con CUDA 12.8, la última versión del entorno de ejecución de NVIDIA, lo que permite sacar el máximo rendimiento a las GPUs RTX, desde la serie RTX 20 hasta