Etiqueta: Canal y Alianzas

Intel estrena sus Core Ultra Series 3 en Intel 18A y acelera la carrera del “PC con IA”

En el CES 2026 de Las Vegas, Intel ha puesto sobre la mesa una de sus apuestas más simbólicas de los últimos años: los nuevos Intel Core Ultra Series 3, presentados como la primera plataforma de cómputo construida sobre Intel 18A, el nodo de fabricación más avanzado que la compañía dice haber desarrollado y producido en Estados Unidos. Más allá del titular, el movimiento busca algo muy concreto: convertir el “AI PC” en una categoría masiva, con autonomía suficiente para el día a día, potencia para creación de contenido y, sobre todo, una NPU (unidad de procesamiento neuronal) capaz de asumir tareas de IA sin depender siempre de la nube. En el comunicado, Intel remarca que la familia Series 3

Akamai lanza ISV Catalyst para atraer a los creadores de software a su nube distribuida en plena carrera por la Inteligencia Artificial

Akamai, uno de los nombres históricos de la infraestructura de Internet y hoy también actor en ciberseguridad y computación en la nube, ha presentado ISV Catalyst, un nuevo programa de partners pensado específicamente para fabricantes de software independientes (ISVs, por sus siglas en inglés). El movimiento llega en un momento en el que el mercado cloud vive una transición acelerada: las empresas piden aplicaciones listas para Inteligencia Artificial, capaces de ejecutarse en entornos multicloud y con costes más previsibles, mientras los proveedores de software buscan rutas más rápidas para llegar a clientes sin depender de integraciones eternas ni acuerdos opacos. La propuesta de Akamai apunta a un problema muy concreto del ecosistema: la relación entre plataformas cloud y ISVs suele

La carrera por la IA dispara la ola de megacentros de datos en América: del “corredor” de Virginia a Brasil y México

Noviembre de 2025 dejó una imagen difícil de ignorar: América se está convirtiendo en el tablero principal de la nueva infraestructura digital, y los centros de datos —especialmente los diseñados para Inteligencia Artificial— han pasado de ser un asunto técnico a un asunto energético, industrial y geopolítico. En apenas unas semanas se sucedieron anuncios de campus de cientos de megavatios, planes de inversión de decenas de miles de millones de dólares y acuerdos que conectan, por primera vez de forma tan directa, la expansión de la computación con el futuro de la generación eléctrica. El patrón se repite: la demanda de cómputo para entrenar y operar modelos de IA está empujando a empresas tecnológicas, operadores de centros de datos y

Virtualización vs contenerización: por qué estas dos piezas sostienen la infraestructura moderna

Durante años, la conversación en centros de datos y equipos de TI se movía entre dos extremos: servidores físicos dedicados para “lo importante” y, en el otro lado, máquinas virtuales para consolidar y ganar flexibilidad. Hoy, sin embargo, el mapa es más rico. La virtualización y la contenerización conviven —y en muchos entornos se apilan una sobre otra— para responder a una misma presión: hacer más con menos, desplegar más rápido y mantener el control sobre seguridad, costes y operación. La comparación no es nueva, pero sí lo es el contexto. La aceleración de la nube híbrida, el auge de Kubernetes, la obsesión por la automatización y el avance de la IA han convertido a estos dos enfoques en una

ZF y Qualcomm refuerzan su alianza para llevar la asistencia a la conducción a una “arquitectura central” escalable

La carrera por el coche definido por software está entrando en una fase más pragmática: menos promesas grandilocuentes y más plataformas capaces de llevar funciones avanzadas de asistencia a la conducción (ADAS) a distintos modelos, gamas y mercados sin rediseñar el vehículo desde cero. En ese contexto, ZF y Qualcomm Technologies han anunciado una colaboración tecnológica para ofrecer una solución ADAS escalable basada en el superordenador automotriz ZF ProAI y la plataforma Snapdragon Ride. El objetivo, según ambas compañías, es combinar capacidad de cómputo, percepción y una arquitectura abierta que permita a los fabricantes integrar software de terceros y adaptar el “paquete” de funciones a cada vehículo. Dicho de otra forma: un mismo núcleo tecnológico que pueda configurarse como controlador

NVIDIA quiere que el “recuerdo” de los agentes de IA viva fuera de la GPU: así es su nueva plataforma de almacenamiento con BlueField-4

En plena carrera por escalar la IA agéntica (modelos capaces de encadenar tareas, razonar durante más tiempo y mantener conversaciones con contexto), NVIDIA ha puesto el foco en un problema muy concreto: la memoria de contexto. En CES, la compañía anunció que su BlueField-4 (un procesador de datos/DPU) será la pieza que impulse la NVIDIA Inference Context Memory Storage Platform, una propuesta de “almacenamiento nativo para IA” diseñada para inferencia a gran escala y para compartir contexto de forma rápida entre nodos. El cuello de botella: el KV cache, la “memoria” que no cabe para siempre en la GPU A medida que los modelos aumentan tamaño y, sobre todo, alargan el contexto (más turnos, más documentos, más pasos de razonamiento),

Intel estrena sus Core Ultra Series 3 en Intel 18A y acelera la carrera del “PC con IA”

En el CES 2026 de Las Vegas, Intel ha puesto sobre la mesa una de sus apuestas más simbólicas de los últimos años: los nuevos Intel Core Ultra Series 3, presentados como la primera plataforma de cómputo construida sobre Intel 18A, el nodo de fabricación más avanzado que la compañía dice haber desarrollado y producido en Estados Unidos. Más allá del titular, el movimiento busca algo muy concreto: convertir el “AI PC” en una categoría masiva, con autonomía suficiente para el día a día, potencia para creación de contenido y, sobre todo, una NPU (unidad de procesamiento neuronal) capaz de asumir tareas de IA sin depender siempre de la nube. En el comunicado, Intel remarca que la familia Series 3

Akamai lanza ISV Catalyst para atraer a los creadores de software a su nube distribuida en plena carrera por la Inteligencia Artificial

Akamai, uno de los nombres históricos de la infraestructura de Internet y hoy también actor en ciberseguridad y computación en la nube, ha presentado ISV Catalyst, un nuevo programa de partners pensado específicamente para fabricantes de software independientes (ISVs, por sus siglas en inglés). El movimiento llega en un momento en el que el mercado cloud vive una transición acelerada: las empresas piden aplicaciones listas para Inteligencia Artificial, capaces de ejecutarse en entornos multicloud y con costes más previsibles, mientras los proveedores de software buscan rutas más rápidas para llegar a clientes sin depender de integraciones eternas ni acuerdos opacos. La propuesta de Akamai apunta a un problema muy concreto del ecosistema: la relación entre plataformas cloud y ISVs suele

La carrera por la IA dispara la ola de megacentros de datos en América: del “corredor” de Virginia a Brasil y México

Noviembre de 2025 dejó una imagen difícil de ignorar: América se está convirtiendo en el tablero principal de la nueva infraestructura digital, y los centros de datos —especialmente los diseñados para Inteligencia Artificial— han pasado de ser un asunto técnico a un asunto energético, industrial y geopolítico. En apenas unas semanas se sucedieron anuncios de campus de cientos de megavatios, planes de inversión de decenas de miles de millones de dólares y acuerdos que conectan, por primera vez de forma tan directa, la expansión de la computación con el futuro de la generación eléctrica. El patrón se repite: la demanda de cómputo para entrenar y operar modelos de IA está empujando a empresas tecnológicas, operadores de centros de datos y

Virtualización vs contenerización: por qué estas dos piezas sostienen la infraestructura moderna

Durante años, la conversación en centros de datos y equipos de TI se movía entre dos extremos: servidores físicos dedicados para “lo importante” y, en el otro lado, máquinas virtuales para consolidar y ganar flexibilidad. Hoy, sin embargo, el mapa es más rico. La virtualización y la contenerización conviven —y en muchos entornos se apilan una sobre otra— para responder a una misma presión: hacer más con menos, desplegar más rápido y mantener el control sobre seguridad, costes y operación. La comparación no es nueva, pero sí lo es el contexto. La aceleración de la nube híbrida, el auge de Kubernetes, la obsesión por la automatización y el avance de la IA han convertido a estos dos enfoques en una

ZF y Qualcomm refuerzan su alianza para llevar la asistencia a la conducción a una “arquitectura central” escalable

La carrera por el coche definido por software está entrando en una fase más pragmática: menos promesas grandilocuentes y más plataformas capaces de llevar funciones avanzadas de asistencia a la conducción (ADAS) a distintos modelos, gamas y mercados sin rediseñar el vehículo desde cero. En ese contexto, ZF y Qualcomm Technologies han anunciado una colaboración tecnológica para ofrecer una solución ADAS escalable basada en el superordenador automotriz ZF ProAI y la plataforma Snapdragon Ride. El objetivo, según ambas compañías, es combinar capacidad de cómputo, percepción y una arquitectura abierta que permita a los fabricantes integrar software de terceros y adaptar el “paquete” de funciones a cada vehículo. Dicho de otra forma: un mismo núcleo tecnológico que pueda configurarse como controlador

NVIDIA quiere que el “recuerdo” de los agentes de IA viva fuera de la GPU: así es su nueva plataforma de almacenamiento con BlueField-4

En plena carrera por escalar la IA agéntica (modelos capaces de encadenar tareas, razonar durante más tiempo y mantener conversaciones con contexto), NVIDIA ha puesto el foco en un problema muy concreto: la memoria de contexto. En CES, la compañía anunció que su BlueField-4 (un procesador de datos/DPU) será la pieza que impulse la NVIDIA Inference Context Memory Storage Platform, una propuesta de “almacenamiento nativo para IA” diseñada para inferencia a gran escala y para compartir contexto de forma rápida entre nodos. El cuello de botella: el KV cache, la “memoria” que no cabe para siempre en la GPU A medida que los modelos aumentan tamaño y, sobre todo, alargan el contexto (más turnos, más documentos, más pasos de razonamiento),

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×