Categoría:

Nebius apunta a Madrid con un nuevo centro de datos para IA

Nebius, la compañía de infraestructura para Inteligencia Artificial cotizada en Nasdaq bajo el ticker NBIS, estaría preparando una nueva presencia en Madrid. Por ahora no hay un anuncio corporativo formal sobre la apertura de un centro de datos en la capital española, pero varias ofertas de empleo publicadas por la propia empresa y replicadas en plataformas profesionales apuntan a esa dirección con bastante claridad. La pista más directa aparece en una vacante para Data Center IT Manager asociada a Nebius. En la descripción del puesto se indica expresamente que la persona seleccionada podrá trabajar “on-site at our colocation facility in Madrid, Spain”, es decir, en una instalación de colocation en Madrid. Otra oferta relacionada, para Data Center IT Support Manager,

QNX lleva su software en tiempo real a AMD Ryzen Embedded para IA física

QNX, la división de BlackBerry especializada en software embebido y sistemas críticos, ha ampliado su colaboración con AMD para llevar QNX SDP 8.0 a la familia Ryzen Embedded x86. La novedad puede parecer técnica a primera vista, pero tiene bastante más calado del que sugiere un simple comunicado: abre la puerta a que fabricantes de automoción, robótica, industria y dispositivos médicos construyan sistemas consolidados de alto rendimiento sobre x86 sin renunciar a un entorno determinista y en tiempo real. Hasta ahora, buena parte del trabajo conjunto entre QNX y AMD se había concentrado en la cartera de computación adaptativa de la compañía, incluyendo plataformas como Zynq UltraScale+, Versal y los módulos Kria. Con este movimiento, la alianza da un salto

Akamai quiere llevar la inferencia de IA al edge con 4.400 ubicaciones

Akamai ha dado un paso importante en su estrategia de Inteligencia Artificial al presentar AI Grid Intelligent Orchestration, una nueva capa de orquestación para inferencia distribuida que, según la compañía, convierte a su red en la primera implementación a escala global del diseño de referencia NVIDIA AI Grid. La propuesta se apoya en la infraestructura de Akamai Inference Cloud y en el despliegue de miles de GPU NVIDIA RTX PRO 6000 Blackwell Server Edition para mover la inferencia más cerca del usuario, en lugar de concentrarla solo en grandes clústeres centrales. El anuncio importa porque refleja un cambio de fondo en el mercado. Durante los últimos años, la conversación sobre IA giró sobre todo alrededor de grandes “AI factories” centralizadas,

NVIDIA redobla su apuesta por la infraestructura de IA con BlueField-4 STX, una arquitectura de almacenamiento pensada para agentes y contextos largos

NVIDIA ha aprovechado el GTC 2026 para presentar BlueField-4 STX, una nueva arquitectura de referencia modular con la que quiere resolver uno de los cuellos de botella menos visibles de la IA moderna: el almacenamiento y el acceso al contexto. La propuesta está orientada a empresas, proveedores cloud y operadores de infraestructura de IA que necesitan alimentar sistemas capaces de trabajar con contextos largos, múltiples herramientas y sesiones persistentes, algo cada vez más habitual en la llamada IA agéntica. La idea de fondo es clara: ya no basta con tener más GPU. Según NVIDIA, los centros de datos tradicionales ofrecen capacidad, pero no la rapidez de respuesta necesaria para que los agentes de IA accedan a datos y memoria contextual

NVIDIA abre una fábrica de datos para entrenar robots y coches autónomos

NVIDIA ha presentado en GTC 2026 un nuevo plano de referencia abierto para uno de los grandes cuellos de botella de la inteligencia artificial física: los datos. La compañía ha anunciado la Physical AI Data Factory Blueprint, una arquitectura pensada para automatizar la generación, ampliación, evaluación y preparación de datos con los que entrenar robots, agentes de visión artificial y sistemas de conducción autónoma a gran escala. La idea de fondo es sencilla de entender: sin datos abundantes, variados y bien validados, no hay robot fiable ni vehículo autónomo que pueda madurar de verdad. La relevancia del anuncio está en que NVIDIA no lo plantea como una herramienta aislada, sino como una cadena completa de trabajo que va desde el

Intel redobla su apuesta por la IA con encapsulados gigantes para HBM

Intel quiere ganar peso en la carrera de la inteligencia artificial por una vía distinta a la del nodo de fabricación puro: el encapsulado avanzado. La información publicada por el medio surcoreano ETNews apunta a que Intel Foundry prepara paquetes de 120 × 120 mm para chips de IA, un formato pensado para integrar más lógica y, sobre todo, más memoria HBM en un mismo conjunto. Lo relevante es que esa filtración encaja con la hoja de ruta que la propia Intel ya había empezado a enseñar en documentación oficial para clientes de IA y HPC. La lectura estratégica es clara. En el mercado actual de aceleradores, el cuello de botella ya no está solo en fabricar el chip más

Nebius apunta a Madrid con un nuevo centro de datos para IA

Nebius, la compañía de infraestructura para Inteligencia Artificial cotizada en Nasdaq bajo el ticker NBIS, estaría preparando una nueva presencia en Madrid. Por ahora no hay un anuncio corporativo formal sobre la apertura de un centro de datos en la capital española, pero varias ofertas de empleo publicadas por la propia empresa y replicadas en plataformas profesionales apuntan a esa dirección con bastante claridad. La pista más directa aparece en una vacante para Data Center IT Manager asociada a Nebius. En la descripción del puesto se indica expresamente que la persona seleccionada podrá trabajar “on-site at our colocation facility in Madrid, Spain”, es decir, en una instalación de colocation en Madrid. Otra oferta relacionada, para Data Center IT Support Manager,

QNX lleva su software en tiempo real a AMD Ryzen Embedded para IA física

QNX, la división de BlackBerry especializada en software embebido y sistemas críticos, ha ampliado su colaboración con AMD para llevar QNX SDP 8.0 a la familia Ryzen Embedded x86. La novedad puede parecer técnica a primera vista, pero tiene bastante más calado del que sugiere un simple comunicado: abre la puerta a que fabricantes de automoción, robótica, industria y dispositivos médicos construyan sistemas consolidados de alto rendimiento sobre x86 sin renunciar a un entorno determinista y en tiempo real. Hasta ahora, buena parte del trabajo conjunto entre QNX y AMD se había concentrado en la cartera de computación adaptativa de la compañía, incluyendo plataformas como Zynq UltraScale+, Versal y los módulos Kria. Con este movimiento, la alianza da un salto

Akamai quiere llevar la inferencia de IA al edge con 4.400 ubicaciones

Akamai ha dado un paso importante en su estrategia de Inteligencia Artificial al presentar AI Grid Intelligent Orchestration, una nueva capa de orquestación para inferencia distribuida que, según la compañía, convierte a su red en la primera implementación a escala global del diseño de referencia NVIDIA AI Grid. La propuesta se apoya en la infraestructura de Akamai Inference Cloud y en el despliegue de miles de GPU NVIDIA RTX PRO 6000 Blackwell Server Edition para mover la inferencia más cerca del usuario, en lugar de concentrarla solo en grandes clústeres centrales. El anuncio importa porque refleja un cambio de fondo en el mercado. Durante los últimos años, la conversación sobre IA giró sobre todo alrededor de grandes “AI factories” centralizadas,

NVIDIA redobla su apuesta por la infraestructura de IA con BlueField-4 STX, una arquitectura de almacenamiento pensada para agentes y contextos largos

NVIDIA ha aprovechado el GTC 2026 para presentar BlueField-4 STX, una nueva arquitectura de referencia modular con la que quiere resolver uno de los cuellos de botella menos visibles de la IA moderna: el almacenamiento y el acceso al contexto. La propuesta está orientada a empresas, proveedores cloud y operadores de infraestructura de IA que necesitan alimentar sistemas capaces de trabajar con contextos largos, múltiples herramientas y sesiones persistentes, algo cada vez más habitual en la llamada IA agéntica. La idea de fondo es clara: ya no basta con tener más GPU. Según NVIDIA, los centros de datos tradicionales ofrecen capacidad, pero no la rapidez de respuesta necesaria para que los agentes de IA accedan a datos y memoria contextual

NVIDIA abre una fábrica de datos para entrenar robots y coches autónomos

NVIDIA ha presentado en GTC 2026 un nuevo plano de referencia abierto para uno de los grandes cuellos de botella de la inteligencia artificial física: los datos. La compañía ha anunciado la Physical AI Data Factory Blueprint, una arquitectura pensada para automatizar la generación, ampliación, evaluación y preparación de datos con los que entrenar robots, agentes de visión artificial y sistemas de conducción autónoma a gran escala. La idea de fondo es sencilla de entender: sin datos abundantes, variados y bien validados, no hay robot fiable ni vehículo autónomo que pueda madurar de verdad. La relevancia del anuncio está en que NVIDIA no lo plantea como una herramienta aislada, sino como una cadena completa de trabajo que va desde el

Intel redobla su apuesta por la IA con encapsulados gigantes para HBM

Intel quiere ganar peso en la carrera de la inteligencia artificial por una vía distinta a la del nodo de fabricación puro: el encapsulado avanzado. La información publicada por el medio surcoreano ETNews apunta a que Intel Foundry prepara paquetes de 120 × 120 mm para chips de IA, un formato pensado para integrar más lógica y, sobre todo, más memoria HBM en un mismo conjunto. Lo relevante es que esa filtración encaja con la hoja de ruta que la propia Intel ya había empezado a enseñar en documentación oficial para clientes de IA y HPC. La lectura estratégica es clara. En el mercado actual de aceleradores, el cuello de botella ya no está solo en fabricar el chip más

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×