Categoría: Inteligencia artificial

NVIDIA Rubin: seis chips, un “superordenador” y la carrera por abaratar el token en la era de la IA de razonamiento

NVIDIA ha aprovechado el escaparate de CES en Las Vegas para marcar el inicio de su siguiente gran plataforma de computación para Inteligencia Artificial. Se llama Rubin, en homenaje a la astrónoma Vera Florence Cooper Rubin, y llega con un mensaje que la compañía repite como idea fuerza: la demanda de cómputo para entrenamiento e inferencia “se está disparando” y, con ella, el coste de llevar modelos avanzados a producción. La respuesta, sostiene NVIDIA, es una arquitectura diseñada como un todo: seis chips nuevos que funcionan como un único superordenador de IA. La plataforma Rubin se apoya en un concepto que la empresa denomina “códiseño extremo”: CPU, GPU, red, seguridad, operaciones y almacenamiento evolucionan de forma coordinada para que el

CES 2026 calienta motores: la feria que quiere convertir la Inteligencia Artificial en infraestructura cotidiana

Las Vegas vuelve a convertirse esta semana en el escaparate donde la industria tecnológica intenta definir el año. CES 2026 no solo llega con la habitual avalancha de portátiles, televisores y gadgets, sino con una ambición más concreta: hacer que la Inteligencia Artificial deje de percibirse como “una capa de software” y pase a entenderse como una nueva infraestructura, desde el centro de datos hasta el escritorio de un desarrollador. La propia organización de CES, en un adelanto de lo que espera del evento, subraya que esta edición pondrá el foco en tendencias que ya no viven aisladas en laboratorios: robótica “de feria a fábrica”, salud digital con vocación de despliegue real y un espacio ampliado para creadores, además del

2026, el año en que la memoria se convierte en el motor de la IA: SK hynix apuesta por un “superciclo” liderado por HBM3E y la transición hacia HBM4

La industria mundial de semiconductores entra en 2026 con una sensación de cambio de época. No es solo una cuestión de nuevos chips, sino de reordenación del valor: el dinero y la prioridad tecnológica se desplazan hacia la infraestructura de Inteligencia Artificial, y en ese movimiento la memoria —DRAM, HBM y almacenamiento empresarial— pasa de ser un componente “acompañante” a convertirse en una pieza decisiva para rendimiento y rentabilidad. Esa es la tesis central del análisis de SK hynix sobre el mercado de 2026: la expansión de la IA está empujando un ciclo alcista en memoria que algunos bancos y analistas ya describen como “superciclo”, y la compañía surcoreana aspira a situarse en el centro gracias a su liderazgo en

MSI convierte el PC “de escaparate” en un ecosistema de montaje: placas AM5 MAX, protección activa del conector 12V-2×6 y refrigeración con OLED curvo en CES 2026

En un CES 2026 marcado por la fiebre de la Inteligencia Artificial en el PC y por componentes cada vez más exigentes —en potencia, en temperatura y en complejidad—, MSI ha presentado una propuesta que va más allá del típico desfile de piezas sueltas. La compañía taiwanesa habla de un “ecosistema de construcción de PC”: un conjunto coherente de placas base, fuentes de alimentación, chasis, refrigeración y herramientas de montaje pensado para que montar, actualizar y personalizar un equipo sea más sencillo, más seguro y, de paso, más espectacular. La idea no es casual. El mercado vive una paradoja: nunca fue tan fácil comprar componentes online, y nunca fue tan fácil equivocarse en un detalle que arruine la experiencia. El

AMD lleva la Inteligencia Artificial al “borde” con Ryzen AI Embedded: un único chip para coches, fábricas y robótica

AMD ha presentado una nueva familia de procesadores x86 embebidos diseñada para ejecutar cargas de Inteligencia Artificial directamente en el edge, allí donde se producen los datos y donde la latencia y el consumo energético mandan: el coche, la línea de producción o un sistema autónomo que debe reaccionar en tiempo real. La compañía, con sede en Santa Clara (California), ha anunciado los AMD Ryzen AI Embedded, un porfolio que arranca con las series P100 y X100 y que combina en un solo silicio tres piezas que, hasta hace poco, solían exigirse por separado: CPU “Zen 5”, GPU RDNA 3.5 y NPU XDNA 2. La promesa, según el propio planteamiento de AMD, es clara: más rendimiento y más capacidad de

Radio a milimétricas y terahercios: la alternativa al cobre (y a veces a la fibra) para conectar racks de IA

En la carrera por construir sistemas de Inteligencia Artificial cada vez más grandes, no todo depende de tener más GPUs. También hace falta mover datos dentro del rack a una velocidad enorme y con latencias muy bajas. Y ahí es donde los enlaces “de siempre” empiezan a chirriar: el cobre se vuelve más grueso, más corto y más difícil de alimentar; y la óptica, aunque promete, no siempre encaja en coste y complejidad cuando el problema es conectar equipos a pocos metros de distancia. En ese contexto han aparecido propuestas que, hace pocos años, sonaban a ciencia ficción: interconexiones por radio dentro del centro de datos, usando frecuencias milimétricas y terahercios y guiando la señal por waveguides (guías de onda)

NVIDIA Rubin: seis chips, un “superordenador” y la carrera por abaratar el token en la era de la IA de razonamiento

NVIDIA ha aprovechado el escaparate de CES en Las Vegas para marcar el inicio de su siguiente gran plataforma de computación para Inteligencia Artificial. Se llama Rubin, en homenaje a la astrónoma Vera Florence Cooper Rubin, y llega con un mensaje que la compañía repite como idea fuerza: la demanda de cómputo para entrenamiento e inferencia “se está disparando” y, con ella, el coste de llevar modelos avanzados a producción. La respuesta, sostiene NVIDIA, es una arquitectura diseñada como un todo: seis chips nuevos que funcionan como un único superordenador de IA. La plataforma Rubin se apoya en un concepto que la empresa denomina “códiseño extremo”: CPU, GPU, red, seguridad, operaciones y almacenamiento evolucionan de forma coordinada para que el

CES 2026 calienta motores: la feria que quiere convertir la Inteligencia Artificial en infraestructura cotidiana

Las Vegas vuelve a convertirse esta semana en el escaparate donde la industria tecnológica intenta definir el año. CES 2026 no solo llega con la habitual avalancha de portátiles, televisores y gadgets, sino con una ambición más concreta: hacer que la Inteligencia Artificial deje de percibirse como “una capa de software” y pase a entenderse como una nueva infraestructura, desde el centro de datos hasta el escritorio de un desarrollador. La propia organización de CES, en un adelanto de lo que espera del evento, subraya que esta edición pondrá el foco en tendencias que ya no viven aisladas en laboratorios: robótica “de feria a fábrica”, salud digital con vocación de despliegue real y un espacio ampliado para creadores, además del

2026, el año en que la memoria se convierte en el motor de la IA: SK hynix apuesta por un “superciclo” liderado por HBM3E y la transición hacia HBM4

La industria mundial de semiconductores entra en 2026 con una sensación de cambio de época. No es solo una cuestión de nuevos chips, sino de reordenación del valor: el dinero y la prioridad tecnológica se desplazan hacia la infraestructura de Inteligencia Artificial, y en ese movimiento la memoria —DRAM, HBM y almacenamiento empresarial— pasa de ser un componente “acompañante” a convertirse en una pieza decisiva para rendimiento y rentabilidad. Esa es la tesis central del análisis de SK hynix sobre el mercado de 2026: la expansión de la IA está empujando un ciclo alcista en memoria que algunos bancos y analistas ya describen como “superciclo”, y la compañía surcoreana aspira a situarse en el centro gracias a su liderazgo en

MSI convierte el PC “de escaparate” en un ecosistema de montaje: placas AM5 MAX, protección activa del conector 12V-2×6 y refrigeración con OLED curvo en CES 2026

En un CES 2026 marcado por la fiebre de la Inteligencia Artificial en el PC y por componentes cada vez más exigentes —en potencia, en temperatura y en complejidad—, MSI ha presentado una propuesta que va más allá del típico desfile de piezas sueltas. La compañía taiwanesa habla de un “ecosistema de construcción de PC”: un conjunto coherente de placas base, fuentes de alimentación, chasis, refrigeración y herramientas de montaje pensado para que montar, actualizar y personalizar un equipo sea más sencillo, más seguro y, de paso, más espectacular. La idea no es casual. El mercado vive una paradoja: nunca fue tan fácil comprar componentes online, y nunca fue tan fácil equivocarse en un detalle que arruine la experiencia. El

AMD lleva la Inteligencia Artificial al “borde” con Ryzen AI Embedded: un único chip para coches, fábricas y robótica

AMD ha presentado una nueva familia de procesadores x86 embebidos diseñada para ejecutar cargas de Inteligencia Artificial directamente en el edge, allí donde se producen los datos y donde la latencia y el consumo energético mandan: el coche, la línea de producción o un sistema autónomo que debe reaccionar en tiempo real. La compañía, con sede en Santa Clara (California), ha anunciado los AMD Ryzen AI Embedded, un porfolio que arranca con las series P100 y X100 y que combina en un solo silicio tres piezas que, hasta hace poco, solían exigirse por separado: CPU “Zen 5”, GPU RDNA 3.5 y NPU XDNA 2. La promesa, según el propio planteamiento de AMD, es clara: más rendimiento y más capacidad de

Radio a milimétricas y terahercios: la alternativa al cobre (y a veces a la fibra) para conectar racks de IA

En la carrera por construir sistemas de Inteligencia Artificial cada vez más grandes, no todo depende de tener más GPUs. También hace falta mover datos dentro del rack a una velocidad enorme y con latencias muy bajas. Y ahí es donde los enlaces “de siempre” empiezan a chirriar: el cobre se vuelve más grueso, más corto y más difícil de alimentar; y la óptica, aunque promete, no siempre encaja en coste y complejidad cuando el problema es conectar equipos a pocos metros de distancia. En ese contexto han aparecido propuestas que, hace pocos años, sonaban a ciencia ficción: interconexiones por radio dentro del centro de datos, usando frecuencias milimétricas y terahercios y guiando la señal por waveguides (guías de onda)

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×