Lenovo apuesta por la inferencia en tiempo real con nuevos servidores empresariales en CES 2026 y un “pack” de despliegue híbrido listo para producción

La gran carrera de la Inteligencia Artificial (IA) en 2026 ya no se mide solo por quién entrena el modelo más grande, sino por quién consigue poner modelos ya entrenados a trabajar en el mundo real: en tiendas, fábricas, hospitales, centros de atención al cliente o infraestructuras críticas. Con esa idea como telón de fondo, Lenovo aprovechó su evento Tech World @ CES 2026, celebrado en Sphere (Las Vegas), para presentar una nueva familia de servidores y servicios orientados específicamente a inferencia —la fase en la que un modelo analiza datos “nuevos” y toma decisiones en tiempo real—.

El anuncio llega en un momento clave para las empresas: tras el “shock” inicial de la IA generativa y la fiebre por entrenar y ajustar modelos, el reto real se ha trasladado al día a día. La pregunta que domina los comités tecnológicos ya no es “¿podemos hacerlo?”, sino “¿podemos hacerlo de forma fiable, con baja latencia, controlando el coste y sin convertirlo en un proyecto interminable?”. Lenovo intenta responder con un paquete que combina hardware, software y servicios bajo su paraguas de Hybrid AI Advantage y la propuesta de Hybrid AI Factory, con despliegues “prevalidados” para acortar tiempos y reducir riesgos.

Inferencia: de la teoría al retorno real

Lenovo define la inferencia como un giro de guion: pasar del entrenamiento de grandes modelos de lenguaje a explotar modelos ya entrenados para analizar datos no vistos y decidir al instante. Es el paso del laboratorio al impacto en negocio. Y, según el enfoque de la compañía, es también el momento en el que la inversión en IA empieza a tener retorno tangible: automatización operativa, analítica en tiempo real, detección de fraude, recomendación inmediata, asistentes internos, agentes para procesos, o apoyo clínico en entornos críticos.

La tesis es clara: la IA no puede vivir solo en la nube. Para generar valor, debe ejecutarse donde están los datos (cloud, centro de datos y edge) y con la infraestructura adecuada para no ahogarse en latencia, cuellos de botella de energía o complejidad de despliegue. Lenovo cita una estimación de Futurum que ilustra por qué el mercado se está moviendo aquí: la infraestructura global de inferencia pasaría de 5.000 millones de dólares en 2024 a 48.800 millones de dólares en 2030, con una CAGR del 46,3%.

Tres servidores para tres escenarios: del centro de datos al edge “ruggerizado”

El núcleo del anuncio es una gama de servidores “afinados” para inferencia, con distintas escalas y objetivos:

  • Lenovo ThinkSystem SR675i: presentado como la opción “peso pesado” para ejecutar modelos completos con gran escalabilidad y abordar cargas grandes en sectores como manufactura, sanidad crítica o servicios financieros. Medios especializados lo describen como un sistema de alta gama orientado a inferencia a escala y simulación acelerada, con plataforma AMD EPYC y GPUs de NVIDIA en la configuración comunicada.
  • Lenovo ThinkSystem SR650i: una alternativa pensada para desplegar inferencia con computación GPU densa dentro de centros de datos existentes, con el foco puesto en facilitar la instalación y escalar sin rediseñar toda la sala.
  • Lenovo ThinkEdge SE455i: el mensaje aquí es “IA donde ocurre la acción”. Es un servidor compacto para retail, telecomunicaciones e industria, diseñado para llevar inferencia al borde con ultrabaja latencia y tolerancia ambiental, operando en un rango aproximado de -5 °C a 55 °C.

En paralelo, Lenovo aprovecha para reforzar dos argumentos clásicos que hoy vuelven a tener peso: energía y financiación. Por un lado, la compañía vincula estos sistemas a su tecnología Neptune (refrigeración por aire y líquida) como respuesta a los cuellos de botella energéticos que aparecen cuando se densifica cómputo. Por otro, apoya la propuesta con TruScale, su modelo de pago por uso, para que las empresas puedan crecer sin “comerse” de golpe un CAPEX que a menudo se dispara con proyectos de IA.

“Prevalidado” para acelerar: Nutanix, Red Hat y Ubuntu Pro

Lenovo no se limita a vender cajas. El anuncio insiste en que el hardware es la base de una arquitectura modular, Lenovo Hybrid AI Factory, que pretende ofrecer una ruta de despliegue más directa hacia producción. Dentro de ese marco, la compañía destaca tres plataformas de inferencia híbrida:

  • ThinkAgile HX con Nutanix AI: orientado a inferencia centralizada compartida, con la promesa de maximizar utilización de GPU, mejorar rendimiento y escalar en un entorno virtualizado.
  • Hybrid AI Inferencing con Red Hat AI: planteado como base empresarial para despliegues robustos, con foco en flexibilidad, seguridad y crecimiento futuro, especialmente para escenarios de IA agéntica.
  • Hybrid AI Inferencing con Canonical Ubuntu Pro: pensado como entrada “coste-efectiva” para empezar rápido, experimentar y desplegar con seguridad esencial, apoyándose en la escalabilidad del SR650i.

El enfoque revela una intuición práctica: muchas compañías no se frenan por falta de interés, sino por miedo a que el despliegue se convierta en un puzle de dependencias, integraciones y políticas internas difíciles de cuadrar.

Servicios para que la IA no se quede en piloto

Para cerrar el círculo, Lenovo presenta Hybrid AI Factory Services para inferencia: asesoramiento, despliegue y servicios gestionados para levantar entornos de alto rendimiento adaptados a cargas concretas por sector. Entre los puntos que enfatiza: rendimiento “desde el día uno”, soporte continuado (incluido Premier Support) y la flexibilidad de TruScale para acompañar la evolución operativa de la IA.

La lectura de mercado es evidente: en 2026, el valor no está solo en “tener IA”, sino en operarla: monitorizar costes, asegurar disponibilidad, actualizar modelos, gobernar datos, mantener seguridad y evitar que el sistema se degrade cuando sube la demanda.

Sphere como escaparate: IA también para experiencias inmersivas

El evento se celebró en Sphere, y Lenovo lo usó como demostración de casos reales: como socio tecnológico de Sphere Studios, la compañía afirma que su potencia de proceso contribuye a la creación de contenidos inmersivos del recinto, con cientos de ThinkSystem SR655 V3, procesadores AMD EPYC y computación acelerada de NVIDIA en los flujos de producción.

Es, en el fondo, el mismo mensaje aplicado al entretenimiento: cuando la experiencia depende de datos, renderizado y baja latencia, la infraestructura se convierte en parte del producto.


Preguntas frecuentes (FAQ)

¿Qué diferencia hay entre entrenar un modelo y hacer inferencia en producción?
El entrenamiento crea o ajusta el modelo; la inferencia lo usa para analizar datos nuevos y tomar decisiones en tiempo real. Es la fase donde la IA se convierte en servicio operativo (y donde suele aparecer el retorno).

¿Cuándo tiene sentido desplegar inferencia en el edge en lugar de hacerlo solo en la nube?
Cuando la latencia importa (retail, industria, telecom), cuando los datos se generan localmente o cuando hay requisitos de resiliencia y continuidad aunque la conectividad sea limitada.

¿Qué aporta una plataforma “prevalidada” como Hybrid AI Factory frente a montar piezas por separado?
Reduce riesgo de compatibilidad, acelera el time-to-market y simplifica el camino a producción, especialmente en entornos donde seguridad, virtualización y operación pesan más que el “experimento”.

¿Por qué la refrigeración (Neptune) y el pago por uso (TruScale) son relevantes en proyectos de inferencia?
Porque la inferencia a escala puede elevar densidad de cómputo y consumo energético; la refrigeración evita cuellos de botella térmicos y el pago por uso ayuda a dimensionar y crecer sin sobredimensionar inversión inicial.

vía: news.lenovo

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×