Etiqueta: WiFi

Musk pone fecha a TeraFAB, pero levantar una megafábrica de chips es otra historia

Elon Musk ha vuelto a agitar el sector tecnológico con un mensaje mínimo, pero suficiente para disparar las especulaciones. El pasado 14 de marzo escribió en X que el “Terafab Project” se lanzará “en 7 días”, lo que sitúa el anuncio en torno al 21 de marzo de 2026. Reuters confirmó después que el proyecto está vinculado a la fabricación de chips de Inteligencia Artificial para Tesla, aunque por ahora no hay detalles oficiales sobre ubicación, socios, inversión final ni calendario industrial real. La clave está precisamente ahí: hoy lo confirmado no es una nueva fundición operativa, sino una presentación o arranque formal de un proyecto. Musk ya venía anticipando desde 2025 que Tesla probablemente necesitaría construir una “gigantic chip

Los hiperescalares rozan los 700.000 millones en capex por la IA

La carrera por la Inteligencia Artificial está entrando en una fase en la que ya no basta con hablar de modelos, chips o software. El verdadero cuello de botella empieza a estar en la infraestructura, y ahí las cifras se están disparando. Moody’s Ratings prevé que el gasto de capital de los grandes hiperescalares de Estados Unidos alcance los 700.000 millones de dólares en 2026, unas seis veces más que en 2022, y que en 2027 siga creciendo hasta 870.000 millones. La agencia cree que la demanda de IA sigue superando claramente a la oferta, pero advierte de que el mercado empieza a inquietarse por el riesgo de sobreconstrucción, el deterioro del flujo de caja libre y el aumento del

OVH Cost Manager 2.2.2 mejora el control del gasto y reduce su Docker

Seguir el gasto en la nube se ha convertido en una necesidad real para muchas empresas, no solo para grandes organizaciones con equipos de FinOps. En ese contexto, herramientas pequeñas, abiertas y fáciles de desplegar empiezan a ganar peso frente a plataformas más complejas. Ahí es donde entra OVH Cost Manager, un proyecto de código abierto pensado para analizar la facturación de OVHcloud desde un panel web y que acaba de publicar su versión 2.2.2, con mejoras centradas en despliegue, importación de datos y control del uso de la API. El proyecto, mantenido por Michel-Marie Maudet y publicado en GitHub bajo licencia MIT, no es un producto oficial de OVHcloud, sino una herramienta comunitaria que busca simplificar la lectura de

Nanya entra en la memoria para IA a medida y ya suma más de 10 clientes

Nanya Technology quiere dejar de ser vista solo como un fabricante taiwanés de DRAM tradicional para empezar a ganar peso en una de las áreas más calientes del negocio de los semiconductores: la memoria personalizada para Inteligencia Artificial. Según ha publicado DigiTimes, la compañía ya está generando ingresos con su propuesta Ultra Wide I/O, o UWIO, y trabaja con más de una decena de clientes globales, varios de ellos ya en fases de definición de especificaciones y producción piloto. La noticia llega en un momento especialmente sensible para toda la industria de la memoria. La presión de la IA sobre HBM sigue siendo tan alta que fabricantes y clientes llevan meses buscando alternativas más asequibles, menos dependientes de empaquetados extremos

Macrohard: así es la IA con la que Musk quiere automatizar el software

Elon Musk ha vuelto a mover el tablero de la Inteligencia Artificial con uno de esos anuncios que mezclan provocación, ambición y estrategia industrial. El proyecto se llama Macrohard, un nombre que juega claramente con la marca Microsoft, y ha sido presentado como una iniciativa conjunta de Tesla y xAI orientada a construir un agente capaz de realizar trabajo informático complejo como si fuera una persona sentada delante de un ordenador. La idea no consiste solo en escribir texto, generar código o responder preguntas, sino en observar lo que ocurre en pantalla, entender el contexto y ejecutar acciones dentro de aplicaciones y sistemas reales. Para un medio tecnológico, lo relevante no es tanto el nombre como lo que representa. Macrohard

Samsung y NVIDIA exploran la NAND del futuro con ayuda de la IA

La carrera por la infraestructura que sostendrá la próxima oleada de Inteligencia Artificial ya no se libra solo en las GPU o en la memoria HBM. También empieza a jugarse en el almacenamiento, y ahí Samsung y NVIDIA están dando un paso interesante. No hay constancia de un anuncio comercial clásico ni de que NVIDIA vaya a fabricar memoria NAND, pero sí existe una colaboración real de investigación entre ambas compañías junto a Georgia Tech para acelerar el desarrollo de memoria NAND basada en materiales ferroeléctricos mediante modelos de IA y computación acelerada. El matiz es importante porque evita caer en el titular fácil. Lo que hoy puede sostenerse con rigor es que Samsung está trabajando en nuevas arquitecturas de

Musk pone fecha a TeraFAB, pero levantar una megafábrica de chips es otra historia

Elon Musk ha vuelto a agitar el sector tecnológico con un mensaje mínimo, pero suficiente para disparar las especulaciones. El pasado 14 de marzo escribió en X que el “Terafab Project” se lanzará “en 7 días”, lo que sitúa el anuncio en torno al 21 de marzo de 2026. Reuters confirmó después que el proyecto está vinculado a la fabricación de chips de Inteligencia Artificial para Tesla, aunque por ahora no hay detalles oficiales sobre ubicación, socios, inversión final ni calendario industrial real. La clave está precisamente ahí: hoy lo confirmado no es una nueva fundición operativa, sino una presentación o arranque formal de un proyecto. Musk ya venía anticipando desde 2025 que Tesla probablemente necesitaría construir una “gigantic chip

Los hiperescalares rozan los 700.000 millones en capex por la IA

La carrera por la Inteligencia Artificial está entrando en una fase en la que ya no basta con hablar de modelos, chips o software. El verdadero cuello de botella empieza a estar en la infraestructura, y ahí las cifras se están disparando. Moody’s Ratings prevé que el gasto de capital de los grandes hiperescalares de Estados Unidos alcance los 700.000 millones de dólares en 2026, unas seis veces más que en 2022, y que en 2027 siga creciendo hasta 870.000 millones. La agencia cree que la demanda de IA sigue superando claramente a la oferta, pero advierte de que el mercado empieza a inquietarse por el riesgo de sobreconstrucción, el deterioro del flujo de caja libre y el aumento del

OVH Cost Manager 2.2.2 mejora el control del gasto y reduce su Docker

Seguir el gasto en la nube se ha convertido en una necesidad real para muchas empresas, no solo para grandes organizaciones con equipos de FinOps. En ese contexto, herramientas pequeñas, abiertas y fáciles de desplegar empiezan a ganar peso frente a plataformas más complejas. Ahí es donde entra OVH Cost Manager, un proyecto de código abierto pensado para analizar la facturación de OVHcloud desde un panel web y que acaba de publicar su versión 2.2.2, con mejoras centradas en despliegue, importación de datos y control del uso de la API. El proyecto, mantenido por Michel-Marie Maudet y publicado en GitHub bajo licencia MIT, no es un producto oficial de OVHcloud, sino una herramienta comunitaria que busca simplificar la lectura de

Nanya entra en la memoria para IA a medida y ya suma más de 10 clientes

Nanya Technology quiere dejar de ser vista solo como un fabricante taiwanés de DRAM tradicional para empezar a ganar peso en una de las áreas más calientes del negocio de los semiconductores: la memoria personalizada para Inteligencia Artificial. Según ha publicado DigiTimes, la compañía ya está generando ingresos con su propuesta Ultra Wide I/O, o UWIO, y trabaja con más de una decena de clientes globales, varios de ellos ya en fases de definición de especificaciones y producción piloto. La noticia llega en un momento especialmente sensible para toda la industria de la memoria. La presión de la IA sobre HBM sigue siendo tan alta que fabricantes y clientes llevan meses buscando alternativas más asequibles, menos dependientes de empaquetados extremos

Macrohard: así es la IA con la que Musk quiere automatizar el software

Elon Musk ha vuelto a mover el tablero de la Inteligencia Artificial con uno de esos anuncios que mezclan provocación, ambición y estrategia industrial. El proyecto se llama Macrohard, un nombre que juega claramente con la marca Microsoft, y ha sido presentado como una iniciativa conjunta de Tesla y xAI orientada a construir un agente capaz de realizar trabajo informático complejo como si fuera una persona sentada delante de un ordenador. La idea no consiste solo en escribir texto, generar código o responder preguntas, sino en observar lo que ocurre en pantalla, entender el contexto y ejecutar acciones dentro de aplicaciones y sistemas reales. Para un medio tecnológico, lo relevante no es tanto el nombre como lo que representa. Macrohard

Samsung y NVIDIA exploran la NAND del futuro con ayuda de la IA

La carrera por la infraestructura que sostendrá la próxima oleada de Inteligencia Artificial ya no se libra solo en las GPU o en la memoria HBM. También empieza a jugarse en el almacenamiento, y ahí Samsung y NVIDIA están dando un paso interesante. No hay constancia de un anuncio comercial clásico ni de que NVIDIA vaya a fabricar memoria NAND, pero sí existe una colaboración real de investigación entre ambas compañías junto a Georgia Tech para acelerar el desarrollo de memoria NAND basada en materiales ferroeléctricos mediante modelos de IA y computación acelerada. El matiz es importante porque evita caer en el titular fácil. Lo que hoy puede sostenerse con rigor es que Samsung está trabajando en nuevas arquitecturas de

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×