Día:

Virtualización vs contenerización: por qué estas dos piezas sostienen la infraestructura moderna

Durante años, la conversación en centros de datos y equipos de TI se movía entre dos extremos: servidores físicos dedicados para “lo importante” y, en el otro lado, máquinas virtuales para consolidar y ganar flexibilidad. Hoy, sin embargo, el mapa es más rico. La virtualización y la contenerización conviven —y en muchos entornos se apilan una sobre otra— para responder a una misma presión: hacer más con menos, desplegar más rápido y mantener el control sobre seguridad, costes y operación. La comparación no es nueva, pero sí lo es el contexto. La aceleración de la nube híbrida, el auge de Kubernetes, la obsesión por la automatización y el avance de la IA han convertido a estos dos enfoques en una

ZF y Qualcomm refuerzan su alianza para llevar la asistencia a la conducción a una “arquitectura central” escalable

La carrera por el coche definido por software está entrando en una fase más pragmática: menos promesas grandilocuentes y más plataformas capaces de llevar funciones avanzadas de asistencia a la conducción (ADAS) a distintos modelos, gamas y mercados sin rediseñar el vehículo desde cero. En ese contexto, ZF y Qualcomm Technologies han anunciado una colaboración tecnológica para ofrecer una solución ADAS escalable basada en el superordenador automotriz ZF ProAI y la plataforma Snapdragon Ride. El objetivo, según ambas compañías, es combinar capacidad de cómputo, percepción y una arquitectura abierta que permita a los fabricantes integrar software de terceros y adaptar el “paquete” de funciones a cada vehículo. Dicho de otra forma: un mismo núcleo tecnológico que pueda configurarse como controlador

NVIDIA quiere que el “recuerdo” de los agentes de IA viva fuera de la GPU: así es su nueva plataforma de almacenamiento con BlueField-4

En plena carrera por escalar la IA agéntica (modelos capaces de encadenar tareas, razonar durante más tiempo y mantener conversaciones con contexto), NVIDIA ha puesto el foco en un problema muy concreto: la memoria de contexto. En CES, la compañía anunció que su BlueField-4 (un procesador de datos/DPU) será la pieza que impulse la NVIDIA Inference Context Memory Storage Platform, una propuesta de “almacenamiento nativo para IA” diseñada para inferencia a gran escala y para compartir contexto de forma rápida entre nodos. El cuello de botella: el KV cache, la “memoria” que no cabe para siempre en la GPU A medida que los modelos aumentan tamaño y, sobre todo, alargan el contexto (más turnos, más documentos, más pasos de razonamiento),

SK hynix lleva a CES 2026 su nueva generación de memoria para la era de la Inteligencia Artificial: HBM4 de 48 GB, SOCAMM2, LPDDR6 y NAND de 321 capas

En la carrera por la Inteligencia Artificial (IA), las grandes batallas ya no se libran solo en los aceleradores o en los procesadores. Cada vez con más frecuencia, el cuello de botella está en la memoria: en cuánta se puede empaquetar, a qué velocidad mueve datos y, sobre todo, cuánta energía consume al hacerlo. Con ese telón de fondo, SK hynix ha elegido CES 2026 para exhibir una hoja de ruta que apunta directamente a los próximos grandes saltos de la industria: desde la HBM4 de alta capacidad hasta nuevos módulos pensados para servidores de IA y memoria móvil orientada al “on-device AI”. La compañía surcoreana ha anunciado la apertura de un stand de exhibición para clientes en Venetian Expo

NVIDIA Rubin: seis chips, un “superordenador” y la carrera por abaratar el token en la era de la IA de razonamiento

NVIDIA ha aprovechado el escaparate de CES en Las Vegas para marcar el inicio de su siguiente gran plataforma de computación para Inteligencia Artificial. Se llama Rubin, en homenaje a la astrónoma Vera Florence Cooper Rubin, y llega con un mensaje que la compañía repite como idea fuerza: la demanda de cómputo para entrenamiento e inferencia “se está disparando” y, con ella, el coste de llevar modelos avanzados a producción. La respuesta, sostiene NVIDIA, es una arquitectura diseñada como un todo: seis chips nuevos que funcionan como un único superordenador de IA. La plataforma Rubin se apoya en un concepto que la empresa denomina “códiseño extremo”: CPU, GPU, red, seguridad, operaciones y almacenamiento evolucionan de forma coordinada para que el

CES 2026 calienta motores: la feria que quiere convertir la Inteligencia Artificial en infraestructura cotidiana

Las Vegas vuelve a convertirse esta semana en el escaparate donde la industria tecnológica intenta definir el año. CES 2026 no solo llega con la habitual avalancha de portátiles, televisores y gadgets, sino con una ambición más concreta: hacer que la Inteligencia Artificial deje de percibirse como “una capa de software” y pase a entenderse como una nueva infraestructura, desde el centro de datos hasta el escritorio de un desarrollador. La propia organización de CES, en un adelanto de lo que espera del evento, subraya que esta edición pondrá el foco en tendencias que ya no viven aisladas en laboratorios: robótica “de feria a fábrica”, salud digital con vocación de despliegue real y un espacio ampliado para creadores, además del

Virtualización vs contenerización: por qué estas dos piezas sostienen la infraestructura moderna

Durante años, la conversación en centros de datos y equipos de TI se movía entre dos extremos: servidores físicos dedicados para “lo importante” y, en el otro lado, máquinas virtuales para consolidar y ganar flexibilidad. Hoy, sin embargo, el mapa es más rico. La virtualización y la contenerización conviven —y en muchos entornos se apilan una sobre otra— para responder a una misma presión: hacer más con menos, desplegar más rápido y mantener el control sobre seguridad, costes y operación. La comparación no es nueva, pero sí lo es el contexto. La aceleración de la nube híbrida, el auge de Kubernetes, la obsesión por la automatización y el avance de la IA han convertido a estos dos enfoques en una

ZF y Qualcomm refuerzan su alianza para llevar la asistencia a la conducción a una “arquitectura central” escalable

La carrera por el coche definido por software está entrando en una fase más pragmática: menos promesas grandilocuentes y más plataformas capaces de llevar funciones avanzadas de asistencia a la conducción (ADAS) a distintos modelos, gamas y mercados sin rediseñar el vehículo desde cero. En ese contexto, ZF y Qualcomm Technologies han anunciado una colaboración tecnológica para ofrecer una solución ADAS escalable basada en el superordenador automotriz ZF ProAI y la plataforma Snapdragon Ride. El objetivo, según ambas compañías, es combinar capacidad de cómputo, percepción y una arquitectura abierta que permita a los fabricantes integrar software de terceros y adaptar el “paquete” de funciones a cada vehículo. Dicho de otra forma: un mismo núcleo tecnológico que pueda configurarse como controlador

NVIDIA quiere que el “recuerdo” de los agentes de IA viva fuera de la GPU: así es su nueva plataforma de almacenamiento con BlueField-4

En plena carrera por escalar la IA agéntica (modelos capaces de encadenar tareas, razonar durante más tiempo y mantener conversaciones con contexto), NVIDIA ha puesto el foco en un problema muy concreto: la memoria de contexto. En CES, la compañía anunció que su BlueField-4 (un procesador de datos/DPU) será la pieza que impulse la NVIDIA Inference Context Memory Storage Platform, una propuesta de “almacenamiento nativo para IA” diseñada para inferencia a gran escala y para compartir contexto de forma rápida entre nodos. El cuello de botella: el KV cache, la “memoria” que no cabe para siempre en la GPU A medida que los modelos aumentan tamaño y, sobre todo, alargan el contexto (más turnos, más documentos, más pasos de razonamiento),

SK hynix lleva a CES 2026 su nueva generación de memoria para la era de la Inteligencia Artificial: HBM4 de 48 GB, SOCAMM2, LPDDR6 y NAND de 321 capas

En la carrera por la Inteligencia Artificial (IA), las grandes batallas ya no se libran solo en los aceleradores o en los procesadores. Cada vez con más frecuencia, el cuello de botella está en la memoria: en cuánta se puede empaquetar, a qué velocidad mueve datos y, sobre todo, cuánta energía consume al hacerlo. Con ese telón de fondo, SK hynix ha elegido CES 2026 para exhibir una hoja de ruta que apunta directamente a los próximos grandes saltos de la industria: desde la HBM4 de alta capacidad hasta nuevos módulos pensados para servidores de IA y memoria móvil orientada al “on-device AI”. La compañía surcoreana ha anunciado la apertura de un stand de exhibición para clientes en Venetian Expo

NVIDIA Rubin: seis chips, un “superordenador” y la carrera por abaratar el token en la era de la IA de razonamiento

NVIDIA ha aprovechado el escaparate de CES en Las Vegas para marcar el inicio de su siguiente gran plataforma de computación para Inteligencia Artificial. Se llama Rubin, en homenaje a la astrónoma Vera Florence Cooper Rubin, y llega con un mensaje que la compañía repite como idea fuerza: la demanda de cómputo para entrenamiento e inferencia “se está disparando” y, con ella, el coste de llevar modelos avanzados a producción. La respuesta, sostiene NVIDIA, es una arquitectura diseñada como un todo: seis chips nuevos que funcionan como un único superordenador de IA. La plataforma Rubin se apoya en un concepto que la empresa denomina “códiseño extremo”: CPU, GPU, red, seguridad, operaciones y almacenamiento evolucionan de forma coordinada para que el

CES 2026 calienta motores: la feria que quiere convertir la Inteligencia Artificial en infraestructura cotidiana

Las Vegas vuelve a convertirse esta semana en el escaparate donde la industria tecnológica intenta definir el año. CES 2026 no solo llega con la habitual avalancha de portátiles, televisores y gadgets, sino con una ambición más concreta: hacer que la Inteligencia Artificial deje de percibirse como “una capa de software” y pase a entenderse como una nueva infraestructura, desde el centro de datos hasta el escritorio de un desarrollador. La propia organización de CES, en un adelanto de lo que espera del evento, subraya que esta edición pondrá el foco en tendencias que ya no viven aisladas en laboratorios: robótica “de feria a fábrica”, salud digital con vocación de despliegue real y un espacio ampliado para creadores, además del

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×