Día: octubre 30, 2024

ZF y Qualcomm refuerzan su alianza para llevar la asistencia a la conducción a una “arquitectura central” escalable

La carrera por el coche definido por software está entrando en una fase más pragmática: menos promesas grandilocuentes y más plataformas capaces de llevar funciones avanzadas de asistencia a la conducción (ADAS) a distintos modelos, gamas y mercados sin rediseñar el vehículo desde cero. En ese contexto, ZF y Qualcomm Technologies han anunciado una colaboración tecnológica para ofrecer una solución ADAS escalable basada en el superordenador automotriz ZF ProAI y la plataforma Snapdragon Ride. El objetivo, según ambas compañías, es combinar capacidad de cómputo, percepción y una arquitectura abierta que permita a los fabricantes integrar software de terceros y adaptar el “paquete” de funciones a cada vehículo. Dicho de otra forma: un mismo núcleo tecnológico que pueda configurarse como controlador

NVIDIA quiere que el “recuerdo” de los agentes de IA viva fuera de la GPU: así es su nueva plataforma de almacenamiento con BlueField-4

En plena carrera por escalar la IA agéntica (modelos capaces de encadenar tareas, razonar durante más tiempo y mantener conversaciones con contexto), NVIDIA ha puesto el foco en un problema muy concreto: la memoria de contexto. En CES, la compañía anunció que su BlueField-4 (un procesador de datos/DPU) será la pieza que impulse la NVIDIA Inference Context Memory Storage Platform, una propuesta de “almacenamiento nativo para IA” diseñada para inferencia a gran escala y para compartir contexto de forma rápida entre nodos. El cuello de botella: el KV cache, la “memoria” que no cabe para siempre en la GPU A medida que los modelos aumentan tamaño y, sobre todo, alargan el contexto (más turnos, más documentos, más pasos de razonamiento),

SK hynix lleva a CES 2026 su nueva generación de memoria para la era de la Inteligencia Artificial: HBM4 de 48 GB, SOCAMM2, LPDDR6 y NAND de 321 capas

En la carrera por la Inteligencia Artificial (IA), las grandes batallas ya no se libran solo en los aceleradores o en los procesadores. Cada vez con más frecuencia, el cuello de botella está en la memoria: en cuánta se puede empaquetar, a qué velocidad mueve datos y, sobre todo, cuánta energía consume al hacerlo. Con ese telón de fondo, SK hynix ha elegido CES 2026 para exhibir una hoja de ruta que apunta directamente a los próximos grandes saltos de la industria: desde la HBM4 de alta capacidad hasta nuevos módulos pensados para servidores de IA y memoria móvil orientada al “on-device AI”. La compañía surcoreana ha anunciado la apertura de un stand de exhibición para clientes en Venetian Expo

NVIDIA Rubin: seis chips, un “superordenador” y la carrera por abaratar el token en la era de la IA de razonamiento

NVIDIA ha aprovechado el escaparate de CES en Las Vegas para marcar el inicio de su siguiente gran plataforma de computación para Inteligencia Artificial. Se llama Rubin, en homenaje a la astrónoma Vera Florence Cooper Rubin, y llega con un mensaje que la compañía repite como idea fuerza: la demanda de cómputo para entrenamiento e inferencia “se está disparando” y, con ella, el coste de llevar modelos avanzados a producción. La respuesta, sostiene NVIDIA, es una arquitectura diseñada como un todo: seis chips nuevos que funcionan como un único superordenador de IA. La plataforma Rubin se apoya en un concepto que la empresa denomina “códiseño extremo”: CPU, GPU, red, seguridad, operaciones y almacenamiento evolucionan de forma coordinada para que el

CES 2026 calienta motores: la feria que quiere convertir la Inteligencia Artificial en infraestructura cotidiana

Las Vegas vuelve a convertirse esta semana en el escaparate donde la industria tecnológica intenta definir el año. CES 2026 no solo llega con la habitual avalancha de portátiles, televisores y gadgets, sino con una ambición más concreta: hacer que la Inteligencia Artificial deje de percibirse como “una capa de software” y pase a entenderse como una nueva infraestructura, desde el centro de datos hasta el escritorio de un desarrollador. La propia organización de CES, en un adelanto de lo que espera del evento, subraya que esta edición pondrá el foco en tendencias que ya no viven aisladas en laboratorios: robótica “de feria a fábrica”, salud digital con vocación de despliegue real y un espacio ampliado para creadores, además del

2026, el año en que la memoria se convierte en el motor de la IA: SK hynix apuesta por un “superciclo” liderado por HBM3E y la transición hacia HBM4

La industria mundial de semiconductores entra en 2026 con una sensación de cambio de época. No es solo una cuestión de nuevos chips, sino de reordenación del valor: el dinero y la prioridad tecnológica se desplazan hacia la infraestructura de Inteligencia Artificial, y en ese movimiento la memoria —DRAM, HBM y almacenamiento empresarial— pasa de ser un componente “acompañante” a convertirse en una pieza decisiva para rendimiento y rentabilidad. Esa es la tesis central del análisis de SK hynix sobre el mercado de 2026: la expansión de la IA está empujando un ciclo alcista en memoria que algunos bancos y analistas ya describen como “superciclo”, y la compañía surcoreana aspira a situarse en el centro gracias a su liderazgo en

ZF y Qualcomm refuerzan su alianza para llevar la asistencia a la conducción a una “arquitectura central” escalable

La carrera por el coche definido por software está entrando en una fase más pragmática: menos promesas grandilocuentes y más plataformas capaces de llevar funciones avanzadas de asistencia a la conducción (ADAS) a distintos modelos, gamas y mercados sin rediseñar el vehículo desde cero. En ese contexto, ZF y Qualcomm Technologies han anunciado una colaboración tecnológica para ofrecer una solución ADAS escalable basada en el superordenador automotriz ZF ProAI y la plataforma Snapdragon Ride. El objetivo, según ambas compañías, es combinar capacidad de cómputo, percepción y una arquitectura abierta que permita a los fabricantes integrar software de terceros y adaptar el “paquete” de funciones a cada vehículo. Dicho de otra forma: un mismo núcleo tecnológico que pueda configurarse como controlador

NVIDIA quiere que el “recuerdo” de los agentes de IA viva fuera de la GPU: así es su nueva plataforma de almacenamiento con BlueField-4

En plena carrera por escalar la IA agéntica (modelos capaces de encadenar tareas, razonar durante más tiempo y mantener conversaciones con contexto), NVIDIA ha puesto el foco en un problema muy concreto: la memoria de contexto. En CES, la compañía anunció que su BlueField-4 (un procesador de datos/DPU) será la pieza que impulse la NVIDIA Inference Context Memory Storage Platform, una propuesta de “almacenamiento nativo para IA” diseñada para inferencia a gran escala y para compartir contexto de forma rápida entre nodos. El cuello de botella: el KV cache, la “memoria” que no cabe para siempre en la GPU A medida que los modelos aumentan tamaño y, sobre todo, alargan el contexto (más turnos, más documentos, más pasos de razonamiento),

SK hynix lleva a CES 2026 su nueva generación de memoria para la era de la Inteligencia Artificial: HBM4 de 48 GB, SOCAMM2, LPDDR6 y NAND de 321 capas

En la carrera por la Inteligencia Artificial (IA), las grandes batallas ya no se libran solo en los aceleradores o en los procesadores. Cada vez con más frecuencia, el cuello de botella está en la memoria: en cuánta se puede empaquetar, a qué velocidad mueve datos y, sobre todo, cuánta energía consume al hacerlo. Con ese telón de fondo, SK hynix ha elegido CES 2026 para exhibir una hoja de ruta que apunta directamente a los próximos grandes saltos de la industria: desde la HBM4 de alta capacidad hasta nuevos módulos pensados para servidores de IA y memoria móvil orientada al “on-device AI”. La compañía surcoreana ha anunciado la apertura de un stand de exhibición para clientes en Venetian Expo

NVIDIA Rubin: seis chips, un “superordenador” y la carrera por abaratar el token en la era de la IA de razonamiento

NVIDIA ha aprovechado el escaparate de CES en Las Vegas para marcar el inicio de su siguiente gran plataforma de computación para Inteligencia Artificial. Se llama Rubin, en homenaje a la astrónoma Vera Florence Cooper Rubin, y llega con un mensaje que la compañía repite como idea fuerza: la demanda de cómputo para entrenamiento e inferencia “se está disparando” y, con ella, el coste de llevar modelos avanzados a producción. La respuesta, sostiene NVIDIA, es una arquitectura diseñada como un todo: seis chips nuevos que funcionan como un único superordenador de IA. La plataforma Rubin se apoya en un concepto que la empresa denomina “códiseño extremo”: CPU, GPU, red, seguridad, operaciones y almacenamiento evolucionan de forma coordinada para que el

CES 2026 calienta motores: la feria que quiere convertir la Inteligencia Artificial en infraestructura cotidiana

Las Vegas vuelve a convertirse esta semana en el escaparate donde la industria tecnológica intenta definir el año. CES 2026 no solo llega con la habitual avalancha de portátiles, televisores y gadgets, sino con una ambición más concreta: hacer que la Inteligencia Artificial deje de percibirse como “una capa de software” y pase a entenderse como una nueva infraestructura, desde el centro de datos hasta el escritorio de un desarrollador. La propia organización de CES, en un adelanto de lo que espera del evento, subraya que esta edición pondrá el foco en tendencias que ya no viven aisladas en laboratorios: robótica “de feria a fábrica”, salud digital con vocación de despliegue real y un espacio ampliado para creadores, además del

2026, el año en que la memoria se convierte en el motor de la IA: SK hynix apuesta por un “superciclo” liderado por HBM3E y la transición hacia HBM4

La industria mundial de semiconductores entra en 2026 con una sensación de cambio de época. No es solo una cuestión de nuevos chips, sino de reordenación del valor: el dinero y la prioridad tecnológica se desplazan hacia la infraestructura de Inteligencia Artificial, y en ese movimiento la memoria —DRAM, HBM y almacenamiento empresarial— pasa de ser un componente “acompañante” a convertirse en una pieza decisiva para rendimiento y rentabilidad. Esa es la tesis central del análisis de SK hynix sobre el mercado de 2026: la expansión de la IA está empujando un ciclo alcista en memoria que algunos bancos y analistas ya describen como “superciclo”, y la compañía surcoreana aspira a situarse en el centro gracias a su liderazgo en

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×