Etiqueta: Xen

OpenAI, Microsoft y la carrera por la AGI: una salida a bolsa que puede redefinir a los hiperescalares

La posible salida a bolsa de OpenAI, aún en fase de negociación y con frentes abiertos en su relación con Microsoft, se ha convertido en uno de los temas más sensibles para el futuro de la inteligencia artificial y el mercado cloud global. No se trata solo de levantar capital ni de fijar valoración en Wall Street: lo que está en juego es el control de la Inteligencia Artificial General (AGI) y cómo esta se integrará en la infraestructura de los grandes hiperescalares —Microsoft Azure, Amazon Web Services (AWS) y Google Cloud. AGI: la cláusula que bloquea el acuerdo Según Financial Times, el principal escollo en las conversaciones entre Microsoft y OpenAI es la llamada “cláusula AGI”. El contrato actual

Japón logra un avance pionero: robots más ágiles gracias a la computación cuántica

La robótica y la computación cuántica, dos de las disciplinas tecnológicas más avanzadas de nuestro tiempo, acaban de encontrarse en un punto de inflexión. Investigadores del Shibaura Institute of Technology, la Universidad de Waseda y Fujitsu Limited han anunciado el desarrollo de un innovador método para optimizar la postura de robots mediante técnicas cuánticas, logrando reducir errores y cálculos en uno de los mayores desafíos de la robótica moderna: la cinemática inversa. El reto: cómo lograr movimientos naturales en robots humanoides Un robot humanoide, o un brazo robótico con múltiples articulaciones, debe calcular constantemente qué ángulos adoptar en cada articulación para alcanzar una posición final —por ejemplo, coger un objeto del suelo sin perder el equilibrio. Esta operación, conocida como

LF Networking lanza Essedum 1.0: la plataforma de código abierto que lleva la IA a las redes

La Linux Foundation marca un hito en la integración de inteligencia artificial en entornos de red con el lanzamiento de Essedum Release 1.0, un proyecto que promete redes más inteligentes, autónomas y ágiles. LF Networking (LFN), uno de los consorcios clave de la Linux Foundation para el desarrollo de proyectos de redes abiertas, ha anunciado la disponibilidad de Essedum Release 1.0, la primera versión estable de una plataforma modular diseñada para acelerar la adopción de aplicaciones de red basadas en inteligencia artificial (IA). Este lanzamiento supone un paso fundamental en la creación de redes AI-native, es decir, redes concebidas para incorporar la IA en cada fase de su operación. El proyecto —contribuido por Infosys, miembro premier de LFN— ofrece un

NVLink Fusion: el tejido invisible que conecta la próxima generación de superfábricas de inteligencia artificial

En menos de una década, el mundo de la inteligencia artificial ha pasado de entrenar modelos con decenas de millones de parámetros a trabajar con trillones. Esta escalada —alimentada por LLMs como GPT-4, Llama 3.1 o Claude Sonnet— no solo ha supuesto un reto algorítmico, sino también un desafío sin precedentes para la infraestructura. Los chips ya no son suficientes por sí solos: lo determinante es cómo se interconectan entre sí. En este contexto, NVIDIA NVLink ha evolucionado hasta convertirse en la columna vertebral de las AI factories. Y con el lanzamiento de NVLink Fusion, la compañía da un paso más: abre el acceso a su tecnología de interconexión para que hiperescaladores, gobiernos y grandes corporaciones puedan construir superclústeres personalizados,

Claude AI cambia las reglas: entrenará sus modelos con datos de usuarios salvo que se opte por excluirse

La inteligencia artificial ha cambiado nuestra forma de trabajar, comunicarnos y hasta de aprender. Pero detrás de cada avance tecnológico late un debate cada vez más candente: ¿qué ocurre con los datos de los usuarios?. Ahora es Anthropic, la empresa creadora de Claude AI, quien se encuentra en el centro de la polémica tras anunciar un cambio en sus políticas de privacidad y términos de servicio. A partir del 28 de septiembre de 2025, todas las conversaciones con Claude podrán ser utilizadas para entrenar sus modelos de IA. Y lo serán por defecto, salvo que los usuarios desactiven manualmente la opción en los ajustes de privacidad. De la promesa de privacidad al giro de estrategia Hasta ahora, Anthropic se había

FugakuNEXT: Japón acelera hacia el zettascale con Fujitsu y NVIDIA frente a la competencia global

La sucesión de Fugaku marca el inicio de una nueva etapa en la supercomputación: IA + HPC integrados en una única plataforma capaz de rivalizar con Estados Unidos y Europa. Un proyecto estratégico: de Fugaku a FugakuNEXT El superordenador Fugaku, inaugurado en 2020 y construido por RIKEN y Fujitsu, alcanzó el liderazgo mundial con 442 petaflops (FP64) en LINPACK y hasta 2 exaflops en precisión mixta. Sin embargo, la evolución de la IA y la necesidad de simulaciones más complejas han impulsado a Japón a diseñar su sucesor: FugakuNEXT. Este nuevo sistema estará operativo hacia 2030 y tendrá como características diferenciales: La clave: IA y simulación en un mismo flujo FugakuNEXT no solo busca ser más rápido en cálculos clásicos.

OpenAI, Microsoft y la carrera por la AGI: una salida a bolsa que puede redefinir a los hiperescalares

La posible salida a bolsa de OpenAI, aún en fase de negociación y con frentes abiertos en su relación con Microsoft, se ha convertido en uno de los temas más sensibles para el futuro de la inteligencia artificial y el mercado cloud global. No se trata solo de levantar capital ni de fijar valoración en Wall Street: lo que está en juego es el control de la Inteligencia Artificial General (AGI) y cómo esta se integrará en la infraestructura de los grandes hiperescalares —Microsoft Azure, Amazon Web Services (AWS) y Google Cloud. AGI: la cláusula que bloquea el acuerdo Según Financial Times, el principal escollo en las conversaciones entre Microsoft y OpenAI es la llamada “cláusula AGI”. El contrato actual

Japón logra un avance pionero: robots más ágiles gracias a la computación cuántica

La robótica y la computación cuántica, dos de las disciplinas tecnológicas más avanzadas de nuestro tiempo, acaban de encontrarse en un punto de inflexión. Investigadores del Shibaura Institute of Technology, la Universidad de Waseda y Fujitsu Limited han anunciado el desarrollo de un innovador método para optimizar la postura de robots mediante técnicas cuánticas, logrando reducir errores y cálculos en uno de los mayores desafíos de la robótica moderna: la cinemática inversa. El reto: cómo lograr movimientos naturales en robots humanoides Un robot humanoide, o un brazo robótico con múltiples articulaciones, debe calcular constantemente qué ángulos adoptar en cada articulación para alcanzar una posición final —por ejemplo, coger un objeto del suelo sin perder el equilibrio. Esta operación, conocida como

LF Networking lanza Essedum 1.0: la plataforma de código abierto que lleva la IA a las redes

La Linux Foundation marca un hito en la integración de inteligencia artificial en entornos de red con el lanzamiento de Essedum Release 1.0, un proyecto que promete redes más inteligentes, autónomas y ágiles. LF Networking (LFN), uno de los consorcios clave de la Linux Foundation para el desarrollo de proyectos de redes abiertas, ha anunciado la disponibilidad de Essedum Release 1.0, la primera versión estable de una plataforma modular diseñada para acelerar la adopción de aplicaciones de red basadas en inteligencia artificial (IA). Este lanzamiento supone un paso fundamental en la creación de redes AI-native, es decir, redes concebidas para incorporar la IA en cada fase de su operación. El proyecto —contribuido por Infosys, miembro premier de LFN— ofrece un

NVLink Fusion: el tejido invisible que conecta la próxima generación de superfábricas de inteligencia artificial

En menos de una década, el mundo de la inteligencia artificial ha pasado de entrenar modelos con decenas de millones de parámetros a trabajar con trillones. Esta escalada —alimentada por LLMs como GPT-4, Llama 3.1 o Claude Sonnet— no solo ha supuesto un reto algorítmico, sino también un desafío sin precedentes para la infraestructura. Los chips ya no son suficientes por sí solos: lo determinante es cómo se interconectan entre sí. En este contexto, NVIDIA NVLink ha evolucionado hasta convertirse en la columna vertebral de las AI factories. Y con el lanzamiento de NVLink Fusion, la compañía da un paso más: abre el acceso a su tecnología de interconexión para que hiperescaladores, gobiernos y grandes corporaciones puedan construir superclústeres personalizados,

Claude AI cambia las reglas: entrenará sus modelos con datos de usuarios salvo que se opte por excluirse

La inteligencia artificial ha cambiado nuestra forma de trabajar, comunicarnos y hasta de aprender. Pero detrás de cada avance tecnológico late un debate cada vez más candente: ¿qué ocurre con los datos de los usuarios?. Ahora es Anthropic, la empresa creadora de Claude AI, quien se encuentra en el centro de la polémica tras anunciar un cambio en sus políticas de privacidad y términos de servicio. A partir del 28 de septiembre de 2025, todas las conversaciones con Claude podrán ser utilizadas para entrenar sus modelos de IA. Y lo serán por defecto, salvo que los usuarios desactiven manualmente la opción en los ajustes de privacidad. De la promesa de privacidad al giro de estrategia Hasta ahora, Anthropic se había

FugakuNEXT: Japón acelera hacia el zettascale con Fujitsu y NVIDIA frente a la competencia global

La sucesión de Fugaku marca el inicio de una nueva etapa en la supercomputación: IA + HPC integrados en una única plataforma capaz de rivalizar con Estados Unidos y Europa. Un proyecto estratégico: de Fugaku a FugakuNEXT El superordenador Fugaku, inaugurado en 2020 y construido por RIKEN y Fujitsu, alcanzó el liderazgo mundial con 442 petaflops (FP64) en LINPACK y hasta 2 exaflops en precisión mixta. Sin embargo, la evolución de la IA y la necesidad de simulaciones más complejas han impulsado a Japón a diseñar su sucesor: FugakuNEXT. Este nuevo sistema estará operativo hacia 2030 y tendrá como características diferenciales: La clave: IA y simulación en un mismo flujo FugakuNEXT no solo busca ser más rápido en cálculos clásicos.

×