Día: septiembre 3, 2024

Nanya entra en la memoria para IA a medida y ya suma más de 10 clientes

Nanya Technology quiere dejar de ser vista solo como un fabricante taiwanés de DRAM tradicional para empezar a ganar peso en una de las áreas más calientes del negocio de los semiconductores: la memoria personalizada para Inteligencia Artificial. Según ha publicado DigiTimes, la compañía ya está generando ingresos con su propuesta Ultra Wide I/O, o UWIO, y trabaja con más de una decena de clientes globales, varios de ellos ya en fases de definición de especificaciones y producción piloto. La noticia llega en un momento especialmente sensible para toda la industria de la memoria. La presión de la IA sobre HBM sigue siendo tan alta que fabricantes y clientes llevan meses buscando alternativas más asequibles, menos dependientes de empaquetados extremos

Macrohard: así es la IA con la que Musk quiere automatizar el software

Elon Musk ha vuelto a mover el tablero de la Inteligencia Artificial con uno de esos anuncios que mezclan provocación, ambición y estrategia industrial. El proyecto se llama Macrohard, un nombre que juega claramente con la marca Microsoft, y ha sido presentado como una iniciativa conjunta de Tesla y xAI orientada a construir un agente capaz de realizar trabajo informático complejo como si fuera una persona sentada delante de un ordenador. La idea no consiste solo en escribir texto, generar código o responder preguntas, sino en observar lo que ocurre en pantalla, entender el contexto y ejecutar acciones dentro de aplicaciones y sistemas reales. Para un medio tecnológico, lo relevante no es tanto el nombre como lo que representa. Macrohard

Samsung y NVIDIA exploran la NAND del futuro con ayuda de la IA

La carrera por la infraestructura que sostendrá la próxima oleada de Inteligencia Artificial ya no se libra solo en las GPU o en la memoria HBM. También empieza a jugarse en el almacenamiento, y ahí Samsung y NVIDIA están dando un paso interesante. No hay constancia de un anuncio comercial clásico ni de que NVIDIA vaya a fabricar memoria NAND, pero sí existe una colaboración real de investigación entre ambas compañías junto a Georgia Tech para acelerar el desarrollo de memoria NAND basada en materiales ferroeléctricos mediante modelos de IA y computación acelerada. El matiz es importante porque evita caer en el titular fácil. Lo que hoy puede sostenerse con rigor es que Samsung está trabajando en nuevas arquitecturas de

YMTC entra en PCIe 5.0 con su primer SSD comercial en plena escasez

El fabricante chino Yangtze Memory Technologies Co. (YMTC) ya tiene en catálogo su primer SSD comercial con interfaz PCIe 5.0. Se llama PC550, llega en formatos M.2 2242 y M.2 2280, se ofrecerá en 512 GB, 1 TB y 2 TB, y apunta sobre todo a equipos comerciales y a la nueva ola de AI PC. Sobre el papel, la versión de 2 TB alcanza hasta 10.500 MB/s de lectura secuencial y 10.000 MB/s de escritura, con soporte para PCIe 5.0 x4 y NVMe 2.0. El anuncio tiene interés por dos razones. La primera es tecnológica: confirma que YMTC ya da el salto comercial a la nueva generación de SSD cliente de alto rendimiento con memoria propia Xtacking 4.0. La

AWS llevará Cerebras a Bedrock para acelerar la inferencia de IA

Amazon Web Services quiere reforzar uno de los frentes más sensibles de la actual carrera por la Inteligencia Artificial: la velocidad de inferencia. AWS y Cerebras han anunciado una colaboración por la que la nube de Amazon desplegará sistemas Cerebras CS-3 en sus centros de datos y los pondrá a disposición de los clientes a través de Amazon Bedrock. El servicio, según ambas compañías, llegará en los próximos meses y más adelante en 2026 también permitirá ejecutar modelos abiertos destacados y modelos Amazon Nova sobre hardware de Cerebras. La noticia es relevante porque no se trata solo de añadir otra opción de hardware al catálogo de AWS, sino de probar una arquitectura distinta para servir modelos generativos a gran velocidad.

NVIDIA quiere llevar el desarrollo de videojuegos al CPD con RTX PRO Server

NVIDIA ha puesto sobre la mesa en la Game Developers Conference de San Francisco una idea que lleva tiempo ganando peso en estudios grandes y distribuidos: sacar parte del desarrollo de videojuegos del puesto físico tradicional y moverlo a infraestructura centralizada en centro de datos. Su propuesta se articula alrededor de NVIDIA RTX PRO Server, una plataforma basada en las RTX PRO 6000 Blackwell Server Edition y en el software NVIDIA vGPU, con la que la compañía quiere virtualizar estaciones de trabajo, pruebas, flujos de IA y tareas de ingeniería sobre una misma base compartida. La idea no es menor. El desarrollo de videojuegos actual combina mundos más grandes, cadenas de producción más complejas y equipos cada vez más repartidos

Nanya entra en la memoria para IA a medida y ya suma más de 10 clientes

Nanya Technology quiere dejar de ser vista solo como un fabricante taiwanés de DRAM tradicional para empezar a ganar peso en una de las áreas más calientes del negocio de los semiconductores: la memoria personalizada para Inteligencia Artificial. Según ha publicado DigiTimes, la compañía ya está generando ingresos con su propuesta Ultra Wide I/O, o UWIO, y trabaja con más de una decena de clientes globales, varios de ellos ya en fases de definición de especificaciones y producción piloto. La noticia llega en un momento especialmente sensible para toda la industria de la memoria. La presión de la IA sobre HBM sigue siendo tan alta que fabricantes y clientes llevan meses buscando alternativas más asequibles, menos dependientes de empaquetados extremos

Macrohard: así es la IA con la que Musk quiere automatizar el software

Elon Musk ha vuelto a mover el tablero de la Inteligencia Artificial con uno de esos anuncios que mezclan provocación, ambición y estrategia industrial. El proyecto se llama Macrohard, un nombre que juega claramente con la marca Microsoft, y ha sido presentado como una iniciativa conjunta de Tesla y xAI orientada a construir un agente capaz de realizar trabajo informático complejo como si fuera una persona sentada delante de un ordenador. La idea no consiste solo en escribir texto, generar código o responder preguntas, sino en observar lo que ocurre en pantalla, entender el contexto y ejecutar acciones dentro de aplicaciones y sistemas reales. Para un medio tecnológico, lo relevante no es tanto el nombre como lo que representa. Macrohard

Samsung y NVIDIA exploran la NAND del futuro con ayuda de la IA

La carrera por la infraestructura que sostendrá la próxima oleada de Inteligencia Artificial ya no se libra solo en las GPU o en la memoria HBM. También empieza a jugarse en el almacenamiento, y ahí Samsung y NVIDIA están dando un paso interesante. No hay constancia de un anuncio comercial clásico ni de que NVIDIA vaya a fabricar memoria NAND, pero sí existe una colaboración real de investigación entre ambas compañías junto a Georgia Tech para acelerar el desarrollo de memoria NAND basada en materiales ferroeléctricos mediante modelos de IA y computación acelerada. El matiz es importante porque evita caer en el titular fácil. Lo que hoy puede sostenerse con rigor es que Samsung está trabajando en nuevas arquitecturas de

YMTC entra en PCIe 5.0 con su primer SSD comercial en plena escasez

El fabricante chino Yangtze Memory Technologies Co. (YMTC) ya tiene en catálogo su primer SSD comercial con interfaz PCIe 5.0. Se llama PC550, llega en formatos M.2 2242 y M.2 2280, se ofrecerá en 512 GB, 1 TB y 2 TB, y apunta sobre todo a equipos comerciales y a la nueva ola de AI PC. Sobre el papel, la versión de 2 TB alcanza hasta 10.500 MB/s de lectura secuencial y 10.000 MB/s de escritura, con soporte para PCIe 5.0 x4 y NVMe 2.0. El anuncio tiene interés por dos razones. La primera es tecnológica: confirma que YMTC ya da el salto comercial a la nueva generación de SSD cliente de alto rendimiento con memoria propia Xtacking 4.0. La

AWS llevará Cerebras a Bedrock para acelerar la inferencia de IA

Amazon Web Services quiere reforzar uno de los frentes más sensibles de la actual carrera por la Inteligencia Artificial: la velocidad de inferencia. AWS y Cerebras han anunciado una colaboración por la que la nube de Amazon desplegará sistemas Cerebras CS-3 en sus centros de datos y los pondrá a disposición de los clientes a través de Amazon Bedrock. El servicio, según ambas compañías, llegará en los próximos meses y más adelante en 2026 también permitirá ejecutar modelos abiertos destacados y modelos Amazon Nova sobre hardware de Cerebras. La noticia es relevante porque no se trata solo de añadir otra opción de hardware al catálogo de AWS, sino de probar una arquitectura distinta para servir modelos generativos a gran velocidad.

NVIDIA quiere llevar el desarrollo de videojuegos al CPD con RTX PRO Server

NVIDIA ha puesto sobre la mesa en la Game Developers Conference de San Francisco una idea que lleva tiempo ganando peso en estudios grandes y distribuidos: sacar parte del desarrollo de videojuegos del puesto físico tradicional y moverlo a infraestructura centralizada en centro de datos. Su propuesta se articula alrededor de NVIDIA RTX PRO Server, una plataforma basada en las RTX PRO 6000 Blackwell Server Edition y en el software NVIDIA vGPU, con la que la compañía quiere virtualizar estaciones de trabajo, pruebas, flujos de IA y tareas de ingeniería sobre una misma base compartida. La idea no es menor. El desarrollo de videojuegos actual combina mundos más grandes, cadenas de producción más complejas y equipos cada vez más repartidos

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×