Las Vegas vuelve a convertirse esta semana en el escaparate donde la industria tecnológica intenta definir el año. CES 2026 no solo llega con la habitual avalancha de portátiles, televisores y gadgets, sino con una ambición más concreta: hacer que la Inteligencia Artificial deje de percibirse como “una capa de software” y pase a entenderse como una nueva infraestructura, desde el centro de datos hasta el escritorio de un desarrollador.
La propia organización de CES, en un adelanto de lo que espera del evento, subraya que esta edición pondrá el foco en tendencias que ya no viven aisladas en laboratorios: robótica “de feria a fábrica”, salud digital con vocación de despliegue real y un espacio ampliado para creadores, además del debut de CES Foundry, un nuevo formato pensado para conversaciones de negocio y tecnología alrededor de IA y computación cuántica. La idea, en términos simples, es que CES 2026 se parezca menos a un catálogo y más a un mapa de ruta.
CES Foundry: cuando la IA y la cuántica se sientan a la mesa
Uno de los mensajes más repetidos en la previa es que la IA ya no se mide solo por modelos, sino por el músculo que permite entrenarlos, servirlos y mantenerlos funcionando sin que los costes se disparen. En ese contexto aparece CES Foundry, concebido como punto de encuentro para hablar de inversión, adopción y escalado —y no únicamente de lanzamientos—, con IA y cuántica como ejes que atraviesan el resto de verticales. El propio “qué esperar” del evento apunta a esa lectura: menos futurismo abstracto y más aterrizaje industrial.
NVIDIA Rubin: seis chips y una promesa de “supercomputador” de IA
En el terreno del centro de datos, NVIDIA utiliza CES para reforzar una narrativa que ya es marca de la casa: la próxima generación no se vende como una GPU, sino como una plataforma completa.
La compañía presenta Rubin como una arquitectura de “codesign extremo” que integra seis piezas de silicio: Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU y Spectrum-6 Ethernet Switch. El objetivo declarado es doble: reducir el tiempo de entrenamiento y, sobre todo, abaratar la generación de tokens en inferencia, un punto crítico en modelos con razonamiento, agentes y contextos largos.
En sus cifras, NVIDIA habla de hasta 10 veces menos coste por token en inferencia frente a Blackwell y de la posibilidad de entrenar modelos Mixture-of-Experts con 4 veces menos GPUs que en la plataforma anterior. Para el sector, ese tipo de métricas tienen una lectura inmediata: si el coste baja, el número de casos de uso “económicamente viables” sube.
Rubin, además, llega con un discurso técnico que busca justificar el salto: NVLink de sexta generación para comunicación GPU-GPU a escala, motor Transformer de nueva generación, capacidades de Confidential Computing a nivel rack y un enfoque de resiliencia/serviciabilidad que intenta atacar uno de los grandes enemigos de los clústeres masivos: la pérdida de rendimiento por fallos y mantenimiento.
NVIDIA sitúa la disponibilidad de sistemas basados en Rubin en la segunda mitad de 2026, de la mano de fabricantes y grandes nubes.
DGX SuperPOD y la obsesión por el “rack como unidad de cómputo”
Otra pieza del relato es el despliegue a escala. La compañía insiste en el concepto de “AI factory”: centros de datos pensados como fábricas de tokens y razonamiento.
En ese marco, DGX SuperPOD aparece como el “plano” para industrializar Rubin. NVIDIA detalla configuraciones que convierten el rack en una especie de bloque indivisible de cálculo y memoria, con el interconectado como protagonista. En el papel, el mensaje es claro: el cuello de botella ya no es solo computacional, también lo son la red, el movimiento de datos y la operación diaria del clúster.
Del data center al escritorio: DGX Spark y DGX Station
CES 2026 también refleja un giro interesante: la IA local vuelve a ganar atractivo, no como alternativa absoluta a la nube, sino como forma de acelerar iteraciones, proteger propiedad intelectual y reducir fricción en desarrollo.
NVIDIA presenta DGX Spark y DGX Station como “supercomputadores” de sobremesa para ejecutar modelos avanzados en local. La promesa es que Spark puede manejar modelos del orden de 100.000 millones de parámetros, mientras que Station apunta a escalas mayores, con una configuración basada en Grace Blackwell Ultra y memoria coherente que, según la compañía, permitiría trabajar con modelos todavía más exigentes desde un entorno de escritorio.
Este movimiento conecta con una demanda creciente: equipos que quieren prototipar y afinar modelos sin depender de colas de GPU en la nube, pero con la posibilidad de escalar después.
AMD responde con “Helios”: el plano de la IA a escala yotta
AMD aprovecha CES 2026 para reforzar su propia visión: “IA en todas partes, para todos”, desde el centro de datos hasta el edge y el PC.
Su anuncio más simbólico es un adelanto de “Helios”, una plataforma rack-scale descrita como “blueprint” para infraestructura de IA a escala yotta. AMD la presenta como un sistema construido alrededor de GPUs Instinct MI455X, CPUs EPYC “Venice” y redes con Pensando, todo apoyado sobre el ecosistema software ROCm. La compañía pone cifra al enfoque: hasta 2,9 exaflops de rendimiento de IA en un solo rack, en su narrativa de densidad y eficiencia.
En paralelo, amplía la familia Instinct con la MI440X orientada a despliegues empresariales on-premise y vuelve a enseñar la carta del futuro con un “preview” de la serie MI500, con horizonte de lanzamiento en 2027.
El mensaje se completa con el empuje en PC: nuevas plataformas Ryzen AI con NPU de 60 TOPS, además de una apuesta declarada por educación y adopción social con un compromiso de 150 millones de dólares para llevar IA a más aulas y comunidades.
MSI traduce la tendencia a producto: portátiles, pantallas, Wi-Fi 7 y SSDs PCIe 5.0
CES sigue siendo CES: hay hardware de consumo, pero cada vez más “contaminado” por la IA como argumento transversal.
MSI presenta una gama extensa bajo el lema “Innovate Beyond”, con portátiles delgados pensados para productividad, máquinas gaming que presumen de margen térmico y, sobre todo, accesorios y componentes que intentan subirse a la ola de conectividad y rendimiento.
Entre los titulares: un portátil gaming de 16″ que la marca describe como capaz de entregar hasta 300 W combinados entre CPU y GPU gracias a un sistema de refrigeración agresivo; modelos finos que mantienen puertos completos (incluido RJ-45 en un formato delgado); un monitor QD-OLED ultrapanorámico que apunta a altas tasas de refresco; y una apuesta por Wi-Fi 7 en formato mesh doméstico. También aparece almacenamiento PCIe Gen5 con cifras de lectura/escritura que buscan atraer tanto a creadores como a usuarios que quieren reducir tiempos de carga y movimiento de datos.
El hilo conductor no es solo el rendimiento bruto: es la sensación de que el PC se rediseña para convivir con flujos de trabajo donde la IA (local o híbrida) es parte del día a día.
La memoria vuelve al centro de la conversación: HBM4 y LPDDR6 en el horizonte
Si algo deja claro esta edición es que la IA no se sostiene solo con GPUs. La memoria y el ancho de banda vuelven a ser estratégicos.
En esa carrera, SK hynix aparece como uno de los actores que más atención concentra: medios del sector recogen que la compañía ha completado el desarrollo de HBM4 con una interfaz de 2.048 bits y velocidades anunciadas de 10 GT/s, por encima del mínimo de la especificación JEDEC, además de una hoja de ruta donde LPDDR6 y tecnologías asociadas a servidores y eficiencia energética ganan peso. Para el mercado, el subtexto es evidente: sin saltos en memoria y empaquetado, la escalada de modelos se vuelve más cara y menos sostenible.
Robótica, salud digital y creadores: CES quiere enseñar utilidad, no solo potencia
Más allá del músculo de cómputo, la organización de CES insiste en que 2026 será una edición donde la tecnología se verá “aplicada”: robótica vinculada a seguridad, sostenibilidad y productividad; salud digital con vocación de producto; y un Creator Space ampliado para reflejar que el contenido —y las herramientas para producirlo— ya forma parte del corazón económico de la industria.
En conjunto, el retrato de CES 2026 es coherente: la IA está empujando una reorganización completa del stack, desde chips y redes hasta formatos de feria, espacios, demostraciones y mensajes corporativos. Y, por encima de todo, aparece una idea que atraviesa casi todos los anuncios: la eficiencia (coste por token, rendimiento por vatio, facilidad operativa) empieza a valer tanto como la potencia.
Preguntas frecuentes (FAQ)
¿Qué es CES Foundry y por qué se menciona tanto en CES 2026?
Es un nuevo formato dentro de CES orientado a conversaciones de negocio y tecnología alrededor de IA y computación cuántica, pensado para conectar innovación con adopción real en industria e inversión.
¿Qué significa que NVIDIA Rubin sea “una plataforma de seis chips” y no solo una GPU?
Que NVIDIA integra CPU, GPU, red, DPU y conmutación como un sistema diseñado conjuntamente, con el objetivo de reducir costes y acelerar entrenamiento e inferencia a gran escala.
¿Por qué se habla tanto del “coste por token” en inferencia en esta generación de hardware?
Porque los modelos con razonamiento, agentes y contextos largos consumen muchos más tokens; si el token es caro, el caso de uso puede dejar de ser viable, incluso aunque el modelo funcione técnicamente.
¿Qué aporta HBM4 frente a generaciones anteriores en infraestructura de IA?
HBM4 busca aumentar el ancho de banda y la eficiencia en memoria de alto rendimiento, un punto crítico para alimentar aceleradores y evitar cuellos de botella cuando los modelos crecen en tamaño y en demanda de datos.
vía: ces.tech