Etiqueta: corsair

Intel y Google refuerzan su alianza para rediseñar la infraestructura de IA

Intel y Google han anunciado una ampliación de su colaboración a varios años para desarrollar la próxima generación de infraestructura cloud e Inteligencia Artificial, con un mensaje de fondo muy claro: la IA moderna no se sostiene solo sobre aceleradores, sino sobre sistemas heterogéneos donde la CPU y los procesadores de infraestructura vuelven a ganar protagonismo. El anuncio, realizado este 9 de abril, confirma que los procesadores Intel Xeon seguirán teniendo un papel relevante en la infraestructura de Google Cloud y que ambas compañías ampliarán además el codesarrollo de IPUs personalizadas basadas en ASIC para mejorar eficiencia, utilización y rendimiento a escala. La alianza tiene bastante más calado del que sugiere un comunicado breve. Intel está intentando recolocar la CPU

Cloudera refuerza su plataforma híbrida de datos con soporte hasta 2032, escala elástica e interoperabilidad abierta

Cloudera ha anunciado nuevas capacidades para su plataforma híbrida de datos e IA con un mensaje muy claro al mercado empresarial: menos migraciones traumáticas, menos ciclos de actualización disruptivos y más margen para ejecutar analítica e Inteligencia Artificial donde convenga, ya sea en centros de datos propios o en la nube. La compañía presentó estas novedades el 8 de abril de 2026 y situó el foco en 3 ejes: estabilidad a largo plazo, elasticidad híbrida e interoperabilidad abierta de datos. El anuncio llega en un momento en el que muchas empresas siguen atrapadas entre 2 presiones opuestas: por un lado, la necesidad de modernizar sus plataformas de datos para dar soporte a nuevos casos de uso de analítica e IA;

Uber amplía su acuerdo con AWS y prueba Trainium3 para su motor de IA

Uber ha decidido reforzar su relación con Amazon Web Services con un movimiento que va más allá de la simple capacidad cloud. La compañía ha ampliado su uso de infraestructura de AWS para llevar más carga de sus sistemas de emparejamiento en tiempo real a instancias basadas en Graviton4 y, además, ha empezado a pilotar el entrenamiento de algunos modelos de Inteligencia Artificial sobre Trainium3, los chips de AWS diseñados específicamente para entrenamiento de IA. La novedad es relevante porque muestra cómo Uber está afinando su estrategia multicloud no solo en función del proveedor, sino también del tipo de silicio que mejor encaja con cada carga. Según AWS, Uber utilizará más instancias Graviton4 para soportar sus Trip Serving Zones, la

BMC refuerza su apuesta por la IA en mainframe con nuevas funciones para desarrollo, operaciones y certificados

BMC Software ha presentado una nueva tanda de capacidades de IA para su cartera de herramientas de mainframe con un mensaje muy claro: el problema ya no es solo modernizar el IBM Z, sino hacerlo en un momento en el que parte del conocimiento experto se está jubilando y las organizaciones necesitan transferir contexto operativo a equipos más jóvenes sin romper la continuidad del negocio. La compañía anunció el 8 de abril de 2026 nuevas funciones en BMC AMI y una ampliación de Control-M, todas centradas en incrustar IA “purpose-built” directamente en los flujos de trabajo diarios de operadores y desarrolladores de mainframe. La novedad más visible en desarrollo es zAdviser Enterprise Application Analysis, una nueva capacidad construida sobre BMC

NVIDIA ya gana más de un 57% con Nokia, pero la tesis de fondo no está en la bolsa: está en convertir la red en infraestructura de IA

La operación ya es rentable sobre el papel. NVIDIA acordó en octubre de 2025 invertir 1.000 millones de dólares en Nokia a 6,01 dólares por acción, una colocación que le daba aproximadamente un 2,9% del capital. El viernes 10 de abril de 2026, los ADR de Nokia cerraron a 9,46 dólares en EE.UU., lo que supone una revalorización cercana al 57,4% respecto al precio de entrada de NVIDIA. Pero reducir la operación a una simple plusvalía sería quedarse en la superficie. Lo verdaderamente relevante es que la alianza entre Nokia y NVIDIA apunta a un cambio estructural: la red de telecomunicaciones ya no se plantea solo como canal para transportar tráfico, sino como una futura capa distribuida de inferencia de

Citrix lanza NetScaler AI Gateway para poner orden, coste y seguridad en el tráfico de IA empresarial

Citrix, empresa de Cloud Software Group, ha presentado NetScaler AI Gateway, una nueva capa de gobierno para aplicaciones de Inteligencia Artificial pensada para controlar costes, rendimiento y seguridad en despliegues corporativos de modelos de lenguaje y flujos agenticos. La compañía lo anunció el 9 de abril de 2026 y lo sitúa como una extensión natural de NetScaler hacia el mundo de la inferencia de IA, con el mismo enfoque de entrega de aplicaciones, observabilidad y control que ya aplica sobre servicios empresariales críticos. El mensaje de fondo de Citrix es claro: muchas empresas ya han pasado de experimentar con IA a intentar llevarla a producción, pero sus infraestructuras no estaban diseñadas para gestionar el nuevo patrón de tráfico, los costes

Intel y Google refuerzan su alianza para rediseñar la infraestructura de IA

Intel y Google han anunciado una ampliación de su colaboración a varios años para desarrollar la próxima generación de infraestructura cloud e Inteligencia Artificial, con un mensaje de fondo muy claro: la IA moderna no se sostiene solo sobre aceleradores, sino sobre sistemas heterogéneos donde la CPU y los procesadores de infraestructura vuelven a ganar protagonismo. El anuncio, realizado este 9 de abril, confirma que los procesadores Intel Xeon seguirán teniendo un papel relevante en la infraestructura de Google Cloud y que ambas compañías ampliarán además el codesarrollo de IPUs personalizadas basadas en ASIC para mejorar eficiencia, utilización y rendimiento a escala. La alianza tiene bastante más calado del que sugiere un comunicado breve. Intel está intentando recolocar la CPU

Cloudera refuerza su plataforma híbrida de datos con soporte hasta 2032, escala elástica e interoperabilidad abierta

Cloudera ha anunciado nuevas capacidades para su plataforma híbrida de datos e IA con un mensaje muy claro al mercado empresarial: menos migraciones traumáticas, menos ciclos de actualización disruptivos y más margen para ejecutar analítica e Inteligencia Artificial donde convenga, ya sea en centros de datos propios o en la nube. La compañía presentó estas novedades el 8 de abril de 2026 y situó el foco en 3 ejes: estabilidad a largo plazo, elasticidad híbrida e interoperabilidad abierta de datos. El anuncio llega en un momento en el que muchas empresas siguen atrapadas entre 2 presiones opuestas: por un lado, la necesidad de modernizar sus plataformas de datos para dar soporte a nuevos casos de uso de analítica e IA;

Uber amplía su acuerdo con AWS y prueba Trainium3 para su motor de IA

Uber ha decidido reforzar su relación con Amazon Web Services con un movimiento que va más allá de la simple capacidad cloud. La compañía ha ampliado su uso de infraestructura de AWS para llevar más carga de sus sistemas de emparejamiento en tiempo real a instancias basadas en Graviton4 y, además, ha empezado a pilotar el entrenamiento de algunos modelos de Inteligencia Artificial sobre Trainium3, los chips de AWS diseñados específicamente para entrenamiento de IA. La novedad es relevante porque muestra cómo Uber está afinando su estrategia multicloud no solo en función del proveedor, sino también del tipo de silicio que mejor encaja con cada carga. Según AWS, Uber utilizará más instancias Graviton4 para soportar sus Trip Serving Zones, la

BMC refuerza su apuesta por la IA en mainframe con nuevas funciones para desarrollo, operaciones y certificados

BMC Software ha presentado una nueva tanda de capacidades de IA para su cartera de herramientas de mainframe con un mensaje muy claro: el problema ya no es solo modernizar el IBM Z, sino hacerlo en un momento en el que parte del conocimiento experto se está jubilando y las organizaciones necesitan transferir contexto operativo a equipos más jóvenes sin romper la continuidad del negocio. La compañía anunció el 8 de abril de 2026 nuevas funciones en BMC AMI y una ampliación de Control-M, todas centradas en incrustar IA “purpose-built” directamente en los flujos de trabajo diarios de operadores y desarrolladores de mainframe. La novedad más visible en desarrollo es zAdviser Enterprise Application Analysis, una nueva capacidad construida sobre BMC

NVIDIA ya gana más de un 57% con Nokia, pero la tesis de fondo no está en la bolsa: está en convertir la red en infraestructura de IA

La operación ya es rentable sobre el papel. NVIDIA acordó en octubre de 2025 invertir 1.000 millones de dólares en Nokia a 6,01 dólares por acción, una colocación que le daba aproximadamente un 2,9% del capital. El viernes 10 de abril de 2026, los ADR de Nokia cerraron a 9,46 dólares en EE.UU., lo que supone una revalorización cercana al 57,4% respecto al precio de entrada de NVIDIA. Pero reducir la operación a una simple plusvalía sería quedarse en la superficie. Lo verdaderamente relevante es que la alianza entre Nokia y NVIDIA apunta a un cambio estructural: la red de telecomunicaciones ya no se plantea solo como canal para transportar tráfico, sino como una futura capa distribuida de inferencia de

Citrix lanza NetScaler AI Gateway para poner orden, coste y seguridad en el tráfico de IA empresarial

Citrix, empresa de Cloud Software Group, ha presentado NetScaler AI Gateway, una nueva capa de gobierno para aplicaciones de Inteligencia Artificial pensada para controlar costes, rendimiento y seguridad en despliegues corporativos de modelos de lenguaje y flujos agenticos. La compañía lo anunció el 9 de abril de 2026 y lo sitúa como una extensión natural de NetScaler hacia el mundo de la inferencia de IA, con el mismo enfoque de entrega de aplicaciones, observabilidad y control que ya aplica sobre servicios empresariales críticos. El mensaje de fondo de Citrix es claro: muchas empresas ya han pasado de experimentar con IA a intentar llevarla a producción, pero sus infraestructuras no estaban diseñadas para gestionar el nuevo patrón de tráfico, los costes

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×