Etiqueta: Lidar

OVH Cost Manager 2.2.2 mejora el control del gasto y reduce su Docker

Seguir el gasto en la nube se ha convertido en una necesidad real para muchas empresas, no solo para grandes organizaciones con equipos de FinOps. En ese contexto, herramientas pequeñas, abiertas y fáciles de desplegar empiezan a ganar peso frente a plataformas más complejas. Ahí es donde entra OVH Cost Manager, un proyecto de código abierto pensado para analizar la facturación de OVHcloud desde un panel web y que acaba de publicar su versión 2.2.2, con mejoras centradas en despliegue, importación de datos y control del uso de la API. El proyecto, mantenido por Michel-Marie Maudet y publicado en GitHub bajo licencia MIT, no es un producto oficial de OVHcloud, sino una herramienta comunitaria que busca simplificar la lectura de

Nanya entra en la memoria para IA a medida y ya suma más de 10 clientes

Nanya Technology quiere dejar de ser vista solo como un fabricante taiwanés de DRAM tradicional para empezar a ganar peso en una de las áreas más calientes del negocio de los semiconductores: la memoria personalizada para Inteligencia Artificial. Según ha publicado DigiTimes, la compañía ya está generando ingresos con su propuesta Ultra Wide I/O, o UWIO, y trabaja con más de una decena de clientes globales, varios de ellos ya en fases de definición de especificaciones y producción piloto. La noticia llega en un momento especialmente sensible para toda la industria de la memoria. La presión de la IA sobre HBM sigue siendo tan alta que fabricantes y clientes llevan meses buscando alternativas más asequibles, menos dependientes de empaquetados extremos

Macrohard: así es la IA con la que Musk quiere automatizar el software

Elon Musk ha vuelto a mover el tablero de la Inteligencia Artificial con uno de esos anuncios que mezclan provocación, ambición y estrategia industrial. El proyecto se llama Macrohard, un nombre que juega claramente con la marca Microsoft, y ha sido presentado como una iniciativa conjunta de Tesla y xAI orientada a construir un agente capaz de realizar trabajo informático complejo como si fuera una persona sentada delante de un ordenador. La idea no consiste solo en escribir texto, generar código o responder preguntas, sino en observar lo que ocurre en pantalla, entender el contexto y ejecutar acciones dentro de aplicaciones y sistemas reales. Para un medio tecnológico, lo relevante no es tanto el nombre como lo que representa. Macrohard

Samsung y NVIDIA exploran la NAND del futuro con ayuda de la IA

La carrera por la infraestructura que sostendrá la próxima oleada de Inteligencia Artificial ya no se libra solo en las GPU o en la memoria HBM. También empieza a jugarse en el almacenamiento, y ahí Samsung y NVIDIA están dando un paso interesante. No hay constancia de un anuncio comercial clásico ni de que NVIDIA vaya a fabricar memoria NAND, pero sí existe una colaboración real de investigación entre ambas compañías junto a Georgia Tech para acelerar el desarrollo de memoria NAND basada en materiales ferroeléctricos mediante modelos de IA y computación acelerada. El matiz es importante porque evita caer en el titular fácil. Lo que hoy puede sostenerse con rigor es que Samsung está trabajando en nuevas arquitecturas de

YMTC entra en PCIe 5.0 con su primer SSD comercial en plena escasez

El fabricante chino Yangtze Memory Technologies Co. (YMTC) ya tiene en catálogo su primer SSD comercial con interfaz PCIe 5.0. Se llama PC550, llega en formatos M.2 2242 y M.2 2280, se ofrecerá en 512 GB, 1 TB y 2 TB, y apunta sobre todo a equipos comerciales y a la nueva ola de AI PC. Sobre el papel, la versión de 2 TB alcanza hasta 10.500 MB/s de lectura secuencial y 10.000 MB/s de escritura, con soporte para PCIe 5.0 x4 y NVMe 2.0. El anuncio tiene interés por dos razones. La primera es tecnológica: confirma que YMTC ya da el salto comercial a la nueva generación de SSD cliente de alto rendimiento con memoria propia Xtacking 4.0. La

AWS llevará Cerebras a Bedrock para acelerar la inferencia de IA

Amazon Web Services quiere reforzar uno de los frentes más sensibles de la actual carrera por la Inteligencia Artificial: la velocidad de inferencia. AWS y Cerebras han anunciado una colaboración por la que la nube de Amazon desplegará sistemas Cerebras CS-3 en sus centros de datos y los pondrá a disposición de los clientes a través de Amazon Bedrock. El servicio, según ambas compañías, llegará en los próximos meses y más adelante en 2026 también permitirá ejecutar modelos abiertos destacados y modelos Amazon Nova sobre hardware de Cerebras. La noticia es relevante porque no se trata solo de añadir otra opción de hardware al catálogo de AWS, sino de probar una arquitectura distinta para servir modelos generativos a gran velocidad.

OVH Cost Manager 2.2.2 mejora el control del gasto y reduce su Docker

Seguir el gasto en la nube se ha convertido en una necesidad real para muchas empresas, no solo para grandes organizaciones con equipos de FinOps. En ese contexto, herramientas pequeñas, abiertas y fáciles de desplegar empiezan a ganar peso frente a plataformas más complejas. Ahí es donde entra OVH Cost Manager, un proyecto de código abierto pensado para analizar la facturación de OVHcloud desde un panel web y que acaba de publicar su versión 2.2.2, con mejoras centradas en despliegue, importación de datos y control del uso de la API. El proyecto, mantenido por Michel-Marie Maudet y publicado en GitHub bajo licencia MIT, no es un producto oficial de OVHcloud, sino una herramienta comunitaria que busca simplificar la lectura de

Nanya entra en la memoria para IA a medida y ya suma más de 10 clientes

Nanya Technology quiere dejar de ser vista solo como un fabricante taiwanés de DRAM tradicional para empezar a ganar peso en una de las áreas más calientes del negocio de los semiconductores: la memoria personalizada para Inteligencia Artificial. Según ha publicado DigiTimes, la compañía ya está generando ingresos con su propuesta Ultra Wide I/O, o UWIO, y trabaja con más de una decena de clientes globales, varios de ellos ya en fases de definición de especificaciones y producción piloto. La noticia llega en un momento especialmente sensible para toda la industria de la memoria. La presión de la IA sobre HBM sigue siendo tan alta que fabricantes y clientes llevan meses buscando alternativas más asequibles, menos dependientes de empaquetados extremos

Macrohard: así es la IA con la que Musk quiere automatizar el software

Elon Musk ha vuelto a mover el tablero de la Inteligencia Artificial con uno de esos anuncios que mezclan provocación, ambición y estrategia industrial. El proyecto se llama Macrohard, un nombre que juega claramente con la marca Microsoft, y ha sido presentado como una iniciativa conjunta de Tesla y xAI orientada a construir un agente capaz de realizar trabajo informático complejo como si fuera una persona sentada delante de un ordenador. La idea no consiste solo en escribir texto, generar código o responder preguntas, sino en observar lo que ocurre en pantalla, entender el contexto y ejecutar acciones dentro de aplicaciones y sistemas reales. Para un medio tecnológico, lo relevante no es tanto el nombre como lo que representa. Macrohard

Samsung y NVIDIA exploran la NAND del futuro con ayuda de la IA

La carrera por la infraestructura que sostendrá la próxima oleada de Inteligencia Artificial ya no se libra solo en las GPU o en la memoria HBM. También empieza a jugarse en el almacenamiento, y ahí Samsung y NVIDIA están dando un paso interesante. No hay constancia de un anuncio comercial clásico ni de que NVIDIA vaya a fabricar memoria NAND, pero sí existe una colaboración real de investigación entre ambas compañías junto a Georgia Tech para acelerar el desarrollo de memoria NAND basada en materiales ferroeléctricos mediante modelos de IA y computación acelerada. El matiz es importante porque evita caer en el titular fácil. Lo que hoy puede sostenerse con rigor es que Samsung está trabajando en nuevas arquitecturas de

YMTC entra en PCIe 5.0 con su primer SSD comercial en plena escasez

El fabricante chino Yangtze Memory Technologies Co. (YMTC) ya tiene en catálogo su primer SSD comercial con interfaz PCIe 5.0. Se llama PC550, llega en formatos M.2 2242 y M.2 2280, se ofrecerá en 512 GB, 1 TB y 2 TB, y apunta sobre todo a equipos comerciales y a la nueva ola de AI PC. Sobre el papel, la versión de 2 TB alcanza hasta 10.500 MB/s de lectura secuencial y 10.000 MB/s de escritura, con soporte para PCIe 5.0 x4 y NVMe 2.0. El anuncio tiene interés por dos razones. La primera es tecnológica: confirma que YMTC ya da el salto comercial a la nueva generación de SSD cliente de alto rendimiento con memoria propia Xtacking 4.0. La

AWS llevará Cerebras a Bedrock para acelerar la inferencia de IA

Amazon Web Services quiere reforzar uno de los frentes más sensibles de la actual carrera por la Inteligencia Artificial: la velocidad de inferencia. AWS y Cerebras han anunciado una colaboración por la que la nube de Amazon desplegará sistemas Cerebras CS-3 en sus centros de datos y los pondrá a disposición de los clientes a través de Amazon Bedrock. El servicio, según ambas compañías, llegará en los próximos meses y más adelante en 2026 también permitirá ejecutar modelos abiertos destacados y modelos Amazon Nova sobre hardware de Cerebras. La noticia es relevante porque no se trata solo de añadir otra opción de hardware al catálogo de AWS, sino de probar una arquitectura distinta para servir modelos generativos a gran velocidad.

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×