Etiqueta: Meeza

La carrera por la IA dispara la ola de megacentros de datos en América: del “corredor” de Virginia a Brasil y México

Noviembre de 2025 dejó una imagen difícil de ignorar: América se está convirtiendo en el tablero principal de la nueva infraestructura digital, y los centros de datos —especialmente los diseñados para Inteligencia Artificial— han pasado de ser un asunto técnico a un asunto energético, industrial y geopolítico. En apenas unas semanas se sucedieron anuncios de campus de cientos de megavatios, planes de inversión de decenas de miles de millones de dólares y acuerdos que conectan, por primera vez de forma tan directa, la expansión de la computación con el futuro de la generación eléctrica. El patrón se repite: la demanda de cómputo para entrenar y operar modelos de IA está empujando a empresas tecnológicas, operadores de centros de datos y

Virtualización vs contenerización: por qué estas dos piezas sostienen la infraestructura moderna

Durante años, la conversación en centros de datos y equipos de TI se movía entre dos extremos: servidores físicos dedicados para “lo importante” y, en el otro lado, máquinas virtuales para consolidar y ganar flexibilidad. Hoy, sin embargo, el mapa es más rico. La virtualización y la contenerización conviven —y en muchos entornos se apilan una sobre otra— para responder a una misma presión: hacer más con menos, desplegar más rápido y mantener el control sobre seguridad, costes y operación. La comparación no es nueva, pero sí lo es el contexto. La aceleración de la nube híbrida, el auge de Kubernetes, la obsesión por la automatización y el avance de la IA han convertido a estos dos enfoques en una

ZF y Qualcomm refuerzan su alianza para llevar la asistencia a la conducción a una “arquitectura central” escalable

La carrera por el coche definido por software está entrando en una fase más pragmática: menos promesas grandilocuentes y más plataformas capaces de llevar funciones avanzadas de asistencia a la conducción (ADAS) a distintos modelos, gamas y mercados sin rediseñar el vehículo desde cero. En ese contexto, ZF y Qualcomm Technologies han anunciado una colaboración tecnológica para ofrecer una solución ADAS escalable basada en el superordenador automotriz ZF ProAI y la plataforma Snapdragon Ride. El objetivo, según ambas compañías, es combinar capacidad de cómputo, percepción y una arquitectura abierta que permita a los fabricantes integrar software de terceros y adaptar el “paquete” de funciones a cada vehículo. Dicho de otra forma: un mismo núcleo tecnológico que pueda configurarse como controlador

NVIDIA quiere que el “recuerdo” de los agentes de IA viva fuera de la GPU: así es su nueva plataforma de almacenamiento con BlueField-4

En plena carrera por escalar la IA agéntica (modelos capaces de encadenar tareas, razonar durante más tiempo y mantener conversaciones con contexto), NVIDIA ha puesto el foco en un problema muy concreto: la memoria de contexto. En CES, la compañía anunció que su BlueField-4 (un procesador de datos/DPU) será la pieza que impulse la NVIDIA Inference Context Memory Storage Platform, una propuesta de “almacenamiento nativo para IA” diseñada para inferencia a gran escala y para compartir contexto de forma rápida entre nodos. El cuello de botella: el KV cache, la “memoria” que no cabe para siempre en la GPU A medida que los modelos aumentan tamaño y, sobre todo, alargan el contexto (más turnos, más documentos, más pasos de razonamiento),

SK hynix lleva a CES 2026 su nueva generación de memoria para la era de la Inteligencia Artificial: HBM4 de 48 GB, SOCAMM2, LPDDR6 y NAND de 321 capas

En la carrera por la Inteligencia Artificial (IA), las grandes batallas ya no se libran solo en los aceleradores o en los procesadores. Cada vez con más frecuencia, el cuello de botella está en la memoria: en cuánta se puede empaquetar, a qué velocidad mueve datos y, sobre todo, cuánta energía consume al hacerlo. Con ese telón de fondo, SK hynix ha elegido CES 2026 para exhibir una hoja de ruta que apunta directamente a los próximos grandes saltos de la industria: desde la HBM4 de alta capacidad hasta nuevos módulos pensados para servidores de IA y memoria móvil orientada al “on-device AI”. La compañía surcoreana ha anunciado la apertura de un stand de exhibición para clientes en Venetian Expo

NVIDIA Rubin: seis chips, un “superordenador” y la carrera por abaratar el token en la era de la IA de razonamiento

NVIDIA ha aprovechado el escaparate de CES en Las Vegas para marcar el inicio de su siguiente gran plataforma de computación para Inteligencia Artificial. Se llama Rubin, en homenaje a la astrónoma Vera Florence Cooper Rubin, y llega con un mensaje que la compañía repite como idea fuerza: la demanda de cómputo para entrenamiento e inferencia “se está disparando” y, con ella, el coste de llevar modelos avanzados a producción. La respuesta, sostiene NVIDIA, es una arquitectura diseñada como un todo: seis chips nuevos que funcionan como un único superordenador de IA. La plataforma Rubin se apoya en un concepto que la empresa denomina “códiseño extremo”: CPU, GPU, red, seguridad, operaciones y almacenamiento evolucionan de forma coordinada para que el

La carrera por la IA dispara la ola de megacentros de datos en América: del “corredor” de Virginia a Brasil y México

Noviembre de 2025 dejó una imagen difícil de ignorar: América se está convirtiendo en el tablero principal de la nueva infraestructura digital, y los centros de datos —especialmente los diseñados para Inteligencia Artificial— han pasado de ser un asunto técnico a un asunto energético, industrial y geopolítico. En apenas unas semanas se sucedieron anuncios de campus de cientos de megavatios, planes de inversión de decenas de miles de millones de dólares y acuerdos que conectan, por primera vez de forma tan directa, la expansión de la computación con el futuro de la generación eléctrica. El patrón se repite: la demanda de cómputo para entrenar y operar modelos de IA está empujando a empresas tecnológicas, operadores de centros de datos y

Virtualización vs contenerización: por qué estas dos piezas sostienen la infraestructura moderna

Durante años, la conversación en centros de datos y equipos de TI se movía entre dos extremos: servidores físicos dedicados para “lo importante” y, en el otro lado, máquinas virtuales para consolidar y ganar flexibilidad. Hoy, sin embargo, el mapa es más rico. La virtualización y la contenerización conviven —y en muchos entornos se apilan una sobre otra— para responder a una misma presión: hacer más con menos, desplegar más rápido y mantener el control sobre seguridad, costes y operación. La comparación no es nueva, pero sí lo es el contexto. La aceleración de la nube híbrida, el auge de Kubernetes, la obsesión por la automatización y el avance de la IA han convertido a estos dos enfoques en una

ZF y Qualcomm refuerzan su alianza para llevar la asistencia a la conducción a una “arquitectura central” escalable

La carrera por el coche definido por software está entrando en una fase más pragmática: menos promesas grandilocuentes y más plataformas capaces de llevar funciones avanzadas de asistencia a la conducción (ADAS) a distintos modelos, gamas y mercados sin rediseñar el vehículo desde cero. En ese contexto, ZF y Qualcomm Technologies han anunciado una colaboración tecnológica para ofrecer una solución ADAS escalable basada en el superordenador automotriz ZF ProAI y la plataforma Snapdragon Ride. El objetivo, según ambas compañías, es combinar capacidad de cómputo, percepción y una arquitectura abierta que permita a los fabricantes integrar software de terceros y adaptar el “paquete” de funciones a cada vehículo. Dicho de otra forma: un mismo núcleo tecnológico que pueda configurarse como controlador

NVIDIA quiere que el “recuerdo” de los agentes de IA viva fuera de la GPU: así es su nueva plataforma de almacenamiento con BlueField-4

En plena carrera por escalar la IA agéntica (modelos capaces de encadenar tareas, razonar durante más tiempo y mantener conversaciones con contexto), NVIDIA ha puesto el foco en un problema muy concreto: la memoria de contexto. En CES, la compañía anunció que su BlueField-4 (un procesador de datos/DPU) será la pieza que impulse la NVIDIA Inference Context Memory Storage Platform, una propuesta de “almacenamiento nativo para IA” diseñada para inferencia a gran escala y para compartir contexto de forma rápida entre nodos. El cuello de botella: el KV cache, la “memoria” que no cabe para siempre en la GPU A medida que los modelos aumentan tamaño y, sobre todo, alargan el contexto (más turnos, más documentos, más pasos de razonamiento),

SK hynix lleva a CES 2026 su nueva generación de memoria para la era de la Inteligencia Artificial: HBM4 de 48 GB, SOCAMM2, LPDDR6 y NAND de 321 capas

En la carrera por la Inteligencia Artificial (IA), las grandes batallas ya no se libran solo en los aceleradores o en los procesadores. Cada vez con más frecuencia, el cuello de botella está en la memoria: en cuánta se puede empaquetar, a qué velocidad mueve datos y, sobre todo, cuánta energía consume al hacerlo. Con ese telón de fondo, SK hynix ha elegido CES 2026 para exhibir una hoja de ruta que apunta directamente a los próximos grandes saltos de la industria: desde la HBM4 de alta capacidad hasta nuevos módulos pensados para servidores de IA y memoria móvil orientada al “on-device AI”. La compañía surcoreana ha anunciado la apertura de un stand de exhibición para clientes en Venetian Expo

NVIDIA Rubin: seis chips, un “superordenador” y la carrera por abaratar el token en la era de la IA de razonamiento

NVIDIA ha aprovechado el escaparate de CES en Las Vegas para marcar el inicio de su siguiente gran plataforma de computación para Inteligencia Artificial. Se llama Rubin, en homenaje a la astrónoma Vera Florence Cooper Rubin, y llega con un mensaje que la compañía repite como idea fuerza: la demanda de cómputo para entrenamiento e inferencia “se está disparando” y, con ella, el coste de llevar modelos avanzados a producción. La respuesta, sostiene NVIDIA, es una arquitectura diseñada como un todo: seis chips nuevos que funcionan como un único superordenador de IA. La plataforma Rubin se apoya en un concepto que la empresa denomina “códiseño extremo”: CPU, GPU, red, seguridad, operaciones y almacenamiento evolucionan de forma coordinada para que el

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×