Etiqueta: FlashBlade

WebVM lleva Linux al navegador sin servidor, pero con matices

Ejecutar una máquina virtual Linux completa dentro del navegador, sin instalar nada en local y sin depender de un servidor tradicional, suena todavía a experimento. Sin embargo, WebVM lleva tiempo demostrando que esa idea ya es viable y que, además, puede resultar útil para algo más que una demo técnica. El proyecto de Leaning Technologies, disponible como software open source en GitHub, permite lanzar un entorno Linux directamente en el navegador usando WebAssembly y virtualización x86 del lado cliente. La propuesta tiene un gancho claro: una “Linux virtual machine in your browser” que funciona de forma server-less, es decir, sin ejecutar la máquina virtual en un backend remoto. En su README oficial, el proyecto explica que WebVM corre completamente en

NVIDIA lleva su estrategia de “fábricas de IA” un paso más allá con Vera Rubin DSX y un gemelo digital listo para diseñarlas antes de construirlas

NVIDIA ha presentado en el GTC 2026 su nuevo Vera Rubin DSX AI Factory reference design junto con la disponibilidad general de Omniverse DSX Blueprint, una combinación con la que la compañía quiere dar a operadores cloud, hiperescalares, colocation providers e integradores una receta completa para diseñar, construir y operar grandes centros de datos de IA con una lógica mucho más industrializada. La propuesta no se limita al cómputo: abarca red, almacenamiento, energía, refrigeración, control y simulación previa mediante gemelos digitales físicamente precisos. La pieza central es el reference design Vera Rubin DSX, que NVIDIA describe como una guía para desplegar infraestructura de IA “codesignada” y optimizada para maximizar los tokens por vatio y acelerar el paso desde la planificación

Nebius apunta a Madrid con un nuevo centro de datos para IA

Nebius, la compañía de infraestructura para Inteligencia Artificial cotizada en Nasdaq bajo el ticker NBIS, estaría preparando una nueva presencia en Madrid. Por ahora no hay un anuncio corporativo formal sobre la apertura de un centro de datos en la capital española, pero varias ofertas de empleo publicadas por la propia empresa y replicadas en plataformas profesionales apuntan a esa dirección con bastante claridad. La pista más directa aparece en una vacante para Data Center IT Manager asociada a Nebius. En la descripción del puesto se indica expresamente que la persona seleccionada podrá trabajar “on-site at our colocation facility in Madrid, Spain”, es decir, en una instalación de colocation en Madrid. Otra oferta relacionada, para Data Center IT Support Manager,

QNX lleva su software en tiempo real a AMD Ryzen Embedded para IA física

QNX, la división de BlackBerry especializada en software embebido y sistemas críticos, ha ampliado su colaboración con AMD para llevar QNX SDP 8.0 a la familia Ryzen Embedded x86. La novedad puede parecer técnica a primera vista, pero tiene bastante más calado del que sugiere un simple comunicado: abre la puerta a que fabricantes de automoción, robótica, industria y dispositivos médicos construyan sistemas consolidados de alto rendimiento sobre x86 sin renunciar a un entorno determinista y en tiempo real. Hasta ahora, buena parte del trabajo conjunto entre QNX y AMD se había concentrado en la cartera de computación adaptativa de la compañía, incluyendo plataformas como Zynq UltraScale+, Versal y los módulos Kria. Con este movimiento, la alianza da un salto

Akamai quiere llevar la inferencia de IA al edge con 4.400 ubicaciones

Akamai ha dado un paso importante en su estrategia de Inteligencia Artificial al presentar AI Grid Intelligent Orchestration, una nueva capa de orquestación para inferencia distribuida que, según la compañía, convierte a su red en la primera implementación a escala global del diseño de referencia NVIDIA AI Grid. La propuesta se apoya en la infraestructura de Akamai Inference Cloud y en el despliegue de miles de GPU NVIDIA RTX PRO 6000 Blackwell Server Edition para mover la inferencia más cerca del usuario, en lugar de concentrarla solo en grandes clústeres centrales. El anuncio importa porque refleja un cambio de fondo en el mercado. Durante los últimos años, la conversación sobre IA giró sobre todo alrededor de grandes “AI factories” centralizadas,

NVIDIA redobla su apuesta por la infraestructura de IA con BlueField-4 STX, una arquitectura de almacenamiento pensada para agentes y contextos largos

NVIDIA ha aprovechado el GTC 2026 para presentar BlueField-4 STX, una nueva arquitectura de referencia modular con la que quiere resolver uno de los cuellos de botella menos visibles de la IA moderna: el almacenamiento y el acceso al contexto. La propuesta está orientada a empresas, proveedores cloud y operadores de infraestructura de IA que necesitan alimentar sistemas capaces de trabajar con contextos largos, múltiples herramientas y sesiones persistentes, algo cada vez más habitual en la llamada IA agéntica. La idea de fondo es clara: ya no basta con tener más GPU. Según NVIDIA, los centros de datos tradicionales ofrecen capacidad, pero no la rapidez de respuesta necesaria para que los agentes de IA accedan a datos y memoria contextual

WebVM lleva Linux al navegador sin servidor, pero con matices

Ejecutar una máquina virtual Linux completa dentro del navegador, sin instalar nada en local y sin depender de un servidor tradicional, suena todavía a experimento. Sin embargo, WebVM lleva tiempo demostrando que esa idea ya es viable y que, además, puede resultar útil para algo más que una demo técnica. El proyecto de Leaning Technologies, disponible como software open source en GitHub, permite lanzar un entorno Linux directamente en el navegador usando WebAssembly y virtualización x86 del lado cliente. La propuesta tiene un gancho claro: una “Linux virtual machine in your browser” que funciona de forma server-less, es decir, sin ejecutar la máquina virtual en un backend remoto. En su README oficial, el proyecto explica que WebVM corre completamente en

NVIDIA lleva su estrategia de “fábricas de IA” un paso más allá con Vera Rubin DSX y un gemelo digital listo para diseñarlas antes de construirlas

NVIDIA ha presentado en el GTC 2026 su nuevo Vera Rubin DSX AI Factory reference design junto con la disponibilidad general de Omniverse DSX Blueprint, una combinación con la que la compañía quiere dar a operadores cloud, hiperescalares, colocation providers e integradores una receta completa para diseñar, construir y operar grandes centros de datos de IA con una lógica mucho más industrializada. La propuesta no se limita al cómputo: abarca red, almacenamiento, energía, refrigeración, control y simulación previa mediante gemelos digitales físicamente precisos. La pieza central es el reference design Vera Rubin DSX, que NVIDIA describe como una guía para desplegar infraestructura de IA “codesignada” y optimizada para maximizar los tokens por vatio y acelerar el paso desde la planificación

Nebius apunta a Madrid con un nuevo centro de datos para IA

Nebius, la compañía de infraestructura para Inteligencia Artificial cotizada en Nasdaq bajo el ticker NBIS, estaría preparando una nueva presencia en Madrid. Por ahora no hay un anuncio corporativo formal sobre la apertura de un centro de datos en la capital española, pero varias ofertas de empleo publicadas por la propia empresa y replicadas en plataformas profesionales apuntan a esa dirección con bastante claridad. La pista más directa aparece en una vacante para Data Center IT Manager asociada a Nebius. En la descripción del puesto se indica expresamente que la persona seleccionada podrá trabajar “on-site at our colocation facility in Madrid, Spain”, es decir, en una instalación de colocation en Madrid. Otra oferta relacionada, para Data Center IT Support Manager,

QNX lleva su software en tiempo real a AMD Ryzen Embedded para IA física

QNX, la división de BlackBerry especializada en software embebido y sistemas críticos, ha ampliado su colaboración con AMD para llevar QNX SDP 8.0 a la familia Ryzen Embedded x86. La novedad puede parecer técnica a primera vista, pero tiene bastante más calado del que sugiere un simple comunicado: abre la puerta a que fabricantes de automoción, robótica, industria y dispositivos médicos construyan sistemas consolidados de alto rendimiento sobre x86 sin renunciar a un entorno determinista y en tiempo real. Hasta ahora, buena parte del trabajo conjunto entre QNX y AMD se había concentrado en la cartera de computación adaptativa de la compañía, incluyendo plataformas como Zynq UltraScale+, Versal y los módulos Kria. Con este movimiento, la alianza da un salto

Akamai quiere llevar la inferencia de IA al edge con 4.400 ubicaciones

Akamai ha dado un paso importante en su estrategia de Inteligencia Artificial al presentar AI Grid Intelligent Orchestration, una nueva capa de orquestación para inferencia distribuida que, según la compañía, convierte a su red en la primera implementación a escala global del diseño de referencia NVIDIA AI Grid. La propuesta se apoya en la infraestructura de Akamai Inference Cloud y en el despliegue de miles de GPU NVIDIA RTX PRO 6000 Blackwell Server Edition para mover la inferencia más cerca del usuario, en lugar de concentrarla solo en grandes clústeres centrales. El anuncio importa porque refleja un cambio de fondo en el mercado. Durante los últimos años, la conversación sobre IA giró sobre todo alrededor de grandes “AI factories” centralizadas,

NVIDIA redobla su apuesta por la infraestructura de IA con BlueField-4 STX, una arquitectura de almacenamiento pensada para agentes y contextos largos

NVIDIA ha aprovechado el GTC 2026 para presentar BlueField-4 STX, una nueva arquitectura de referencia modular con la que quiere resolver uno de los cuellos de botella menos visibles de la IA moderna: el almacenamiento y el acceso al contexto. La propuesta está orientada a empresas, proveedores cloud y operadores de infraestructura de IA que necesitan alimentar sistemas capaces de trabajar con contextos largos, múltiples herramientas y sesiones persistentes, algo cada vez más habitual en la llamada IA agéntica. La idea de fondo es clara: ya no basta con tener más GPU. Según NVIDIA, los centros de datos tradicionales ofrecen capacidad, pero no la rapidez de respuesta necesaria para que los agentes de IA accedan a datos y memoria contextual

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×