Etiqueta: NVIDIA

Colossus: el megacentro de datos de xAI desata polémica en Memphis por su consumo energético y emisiones

El ambicioso superordenador de inteligencia artificial Colossus, desarrollado por xAI en colaboración con NVIDIA y Supermicro, ha vuelto a situarse en el centro del debate energético y medioambiental en Estados Unidos. Construido en tan solo 122 días, el centro de datos de Memphis que alberga este sistema de entrenamiento masivo de modelos de IA reúne ya 100.000 aceleradores H100 de NVIDIA y otros 100.000 Nvidia H200 en fase de despliegue. Pero la magnitud del proyecto no ha tardado en plantear serios desafíos de infraestructura. En su fase inicial, Colossus requería unos 155 MW de potencia eléctrica, aunque inicialmente sólo disponía de 8 MW conectados a la red, aumentados posteriormente a 50 MW. El edificio elegido no estaba preparado para albergar

LM Studio impulsa la IA local: así acelera la inferencia con GPUs RTX y CUDA 12.8

En un contexto donde la inteligencia artificial generativa se convierte en parte del día a día de desarrolladores, investigadores y usuarios avanzados, la posibilidad de ejecutar modelos de lenguaje (LLM) localmente ha pasado de ser una opción experimental a una alternativa madura, potente y con ventajas claras. En esta transformación, LM Studio se posiciona como uno de los entornos más versátiles y accesibles para ejecutar modelos de IA en local, sin depender de servicios en la nube. Con la llegada de su versión 0.3.15, LM Studio se integra de forma nativa con CUDA 12.8, la última versión del entorno de ejecución de NVIDIA, lo que permite sacar el máximo rendimiento a las GPUs RTX, desde la serie RTX 20 hasta

GIGABYTE presenta en COMPUTEX 2025 su ecosistema completo para la inteligencia artificial

Desde soluciones de infraestructura escalable hasta dispositivos edge y PCs personales con aceleración por IA, la compañía taiwanesa despliega una estrategia integral que abarca todo el ciclo de vida de la inteligencia artificial. En el marco de la feria COMPUTEX 2025, que se celebrará del 20 al 23 de mayo en Taipéi, GIGABYTE Technology ha anunciado su ambiciosa apuesta por liderar el ecosistema de la inteligencia artificial con una propuesta que va mucho más allá del hardware tradicional. Bajo el lema “Omnipresence of Computing: AI Forward”, la compañía exhibirá una cartera integral que abarca desde infraestructuras para entrenamiento de modelos a gran escala hasta soluciones para despliegue en el borde y aplicaciones cotidianas en el entorno doméstico. GIGAPOD: el núcleo

Memoria no binaria DDR5: la nueva generación intermedia que redefine el rendimiento y la capacidad

La llegada de módulos de 24 Gbit marca una revolución silenciosa en la evolución de la memoria RAM. Más allá de modas, esta nueva densidad amplía las posibilidades tanto para entusiastas del gaming como para centros de datos e inteligencia artificial. La memoria RAM ha evolucionado a un ritmo constante durante las últimas décadas, pero pocas veces lo ha hecho rompiendo esquemas. Con la memoria DDR5 no binaria, eso está ocurriendo. Por primera vez, se introduce una densidad de 24 Gbit, que rompe con la tradicional progresión binaria (8, 16, 32 Gbit…), permitiendo crear módulos intermedios de 24 GB, 48 GB y 96 GB. ¿El objetivo? Optimizar el equilibrio entre capacidad, rendimiento y coste. ¿Qué es la memoria no binaria? A diferencia de lo que

NVIDIA ajusta su hardware de IA para esquivar sanciones y seguir operando en China

La compañía estadounidense trabaja en versiones modificadas de sus aceleradores de inteligencia artificial para sortear las nuevas restricciones a las exportaciones impuestas por Estados Unidos. NVIDIA vuelve a adaptar su estrategia para mantener su presencia en el mercado chino de inteligencia artificial, uno de los más importantes a nivel mundial, ante las crecientes restricciones comerciales impuestas por el Gobierno de Estados Unidos. Según ha revelado el medio especializado Hardwareluxx, la empresa ya se encuentra en conversaciones con clientes clave en China —como ByteDance, Alibaba o Tencent— para introducir versiones modificadas de sus aceleradores de IA que cumplan con los nuevos límites de exportación. Firmware limitado en lugar de rediseños físicos A diferencia de anteriores generaciones donde fue necesario modificar directamente

El nuevo superchip GB10 de Nvidia irrumpe en Geekbench y anticipa una revolución ARM en PCs

El esperado chip ARM de Nvidia comienza a mostrar sus cartas con resultados filtrados que revelan un rendimiento competitivo frente a los mejores procesadores del mercado. A pocas semanas de que arranque el evento Computex 2025, el nuevo superchip de Nvidia, el GB10 Grace Blackwell, ha hecho su aparición en la base de datos de Geekbench. Cuatro resultados distintos publicados el 6 de mayo confirman que el chip ya está en pruebas reales y, a juzgar por las puntuaciones, su rendimiento no pasa desapercibido. Primeras cifras: hasta 2.960 puntos en mononúcleo y 10.682 en multinúcleo Aunque aún se trata de resultados preliminares, el GB10 logra entre 1.909 y 3.000 puntos en pruebas de un solo núcleo, y hasta 10.682 puntos

Colossus: el megacentro de datos de xAI desata polémica en Memphis por su consumo energético y emisiones

El ambicioso superordenador de inteligencia artificial Colossus, desarrollado por xAI en colaboración con NVIDIA y Supermicro, ha vuelto a situarse en el centro del debate energético y medioambiental en Estados Unidos. Construido en tan solo 122 días, el centro de datos de Memphis que alberga este sistema de entrenamiento masivo de modelos de IA reúne ya 100.000 aceleradores H100 de NVIDIA y otros 100.000 Nvidia H200 en fase de despliegue. Pero la magnitud del proyecto no ha tardado en plantear serios desafíos de infraestructura. En su fase inicial, Colossus requería unos 155 MW de potencia eléctrica, aunque inicialmente sólo disponía de 8 MW conectados a la red, aumentados posteriormente a 50 MW. El edificio elegido no estaba preparado para albergar

LM Studio impulsa la IA local: así acelera la inferencia con GPUs RTX y CUDA 12.8

En un contexto donde la inteligencia artificial generativa se convierte en parte del día a día de desarrolladores, investigadores y usuarios avanzados, la posibilidad de ejecutar modelos de lenguaje (LLM) localmente ha pasado de ser una opción experimental a una alternativa madura, potente y con ventajas claras. En esta transformación, LM Studio se posiciona como uno de los entornos más versátiles y accesibles para ejecutar modelos de IA en local, sin depender de servicios en la nube. Con la llegada de su versión 0.3.15, LM Studio se integra de forma nativa con CUDA 12.8, la última versión del entorno de ejecución de NVIDIA, lo que permite sacar el máximo rendimiento a las GPUs RTX, desde la serie RTX 20 hasta

GIGABYTE presenta en COMPUTEX 2025 su ecosistema completo para la inteligencia artificial

Desde soluciones de infraestructura escalable hasta dispositivos edge y PCs personales con aceleración por IA, la compañía taiwanesa despliega una estrategia integral que abarca todo el ciclo de vida de la inteligencia artificial. En el marco de la feria COMPUTEX 2025, que se celebrará del 20 al 23 de mayo en Taipéi, GIGABYTE Technology ha anunciado su ambiciosa apuesta por liderar el ecosistema de la inteligencia artificial con una propuesta que va mucho más allá del hardware tradicional. Bajo el lema “Omnipresence of Computing: AI Forward”, la compañía exhibirá una cartera integral que abarca desde infraestructuras para entrenamiento de modelos a gran escala hasta soluciones para despliegue en el borde y aplicaciones cotidianas en el entorno doméstico. GIGAPOD: el núcleo

Memoria no binaria DDR5: la nueva generación intermedia que redefine el rendimiento y la capacidad

La llegada de módulos de 24 Gbit marca una revolución silenciosa en la evolución de la memoria RAM. Más allá de modas, esta nueva densidad amplía las posibilidades tanto para entusiastas del gaming como para centros de datos e inteligencia artificial. La memoria RAM ha evolucionado a un ritmo constante durante las últimas décadas, pero pocas veces lo ha hecho rompiendo esquemas. Con la memoria DDR5 no binaria, eso está ocurriendo. Por primera vez, se introduce una densidad de 24 Gbit, que rompe con la tradicional progresión binaria (8, 16, 32 Gbit…), permitiendo crear módulos intermedios de 24 GB, 48 GB y 96 GB. ¿El objetivo? Optimizar el equilibrio entre capacidad, rendimiento y coste. ¿Qué es la memoria no binaria? A diferencia de lo que

NVIDIA ajusta su hardware de IA para esquivar sanciones y seguir operando en China

La compañía estadounidense trabaja en versiones modificadas de sus aceleradores de inteligencia artificial para sortear las nuevas restricciones a las exportaciones impuestas por Estados Unidos. NVIDIA vuelve a adaptar su estrategia para mantener su presencia en el mercado chino de inteligencia artificial, uno de los más importantes a nivel mundial, ante las crecientes restricciones comerciales impuestas por el Gobierno de Estados Unidos. Según ha revelado el medio especializado Hardwareluxx, la empresa ya se encuentra en conversaciones con clientes clave en China —como ByteDance, Alibaba o Tencent— para introducir versiones modificadas de sus aceleradores de IA que cumplan con los nuevos límites de exportación. Firmware limitado en lugar de rediseños físicos A diferencia de anteriores generaciones donde fue necesario modificar directamente

El nuevo superchip GB10 de Nvidia irrumpe en Geekbench y anticipa una revolución ARM en PCs

El esperado chip ARM de Nvidia comienza a mostrar sus cartas con resultados filtrados que revelan un rendimiento competitivo frente a los mejores procesadores del mercado. A pocas semanas de que arranque el evento Computex 2025, el nuevo superchip de Nvidia, el GB10 Grace Blackwell, ha hecho su aparición en la base de datos de Geekbench. Cuatro resultados distintos publicados el 6 de mayo confirman que el chip ya está en pruebas reales y, a juzgar por las puntuaciones, su rendimiento no pasa desapercibido. Primeras cifras: hasta 2.960 puntos en mononúcleo y 10.682 en multinúcleo Aunque aún se trata de resultados preliminares, el GB10 logra entre 1.909 y 3.000 puntos en pruebas de un solo núcleo, y hasta 10.682 puntos