Día: junio 11, 2024

NVIDIA ya no solo vende GPUs: financia la infraestructura de la IA

NVIDIA se ha convertido en algo más que el proveedor dominante de chips para inteligencia artificial. La compañía de Jensen Huang está usando su enorme generación de caja y su capitalización bursátil para financiar a buena parte del ecosistema que necesita para seguir creciendo: desarrolladores de modelos, neoclouds, operadores de centros de datos, fabricantes de fibra óptica, compañías de fotónica, empresas de networking y socios de silicio. El movimiento no es menor. Según CNBC, NVIDIA ya habría superado los 40.000 millones de dólares en compromisos de inversión en 2026, una cifra que confirma su transformación en una especie de banco industrial de la IA. La lógica es clara: si el cuello de botella de la inteligencia artificial está en la

SMIC cuestiona la obsesión por los 2 nm en plena guerra del chip

Zhang Rujing, fundador de SMIC, ha puesto palabras a una tensión que atraviesa toda la industria de los semiconductores: no todo el éxito se mide por llegar antes a los 3 nm o a los 2 nm. En una entrevista recogida por medios chinos, el directivo sostiene que esa lectura es un “error de concepto” porque reduce un mercado inmenso a una carrera muy visible, muy cara y reservada a unos pocos actores. La afirmación llega en un momento especialmente sensible para China. SMIC es la mayor fundición del país, pero sigue condicionada por las restricciones de exportación de equipos avanzados de litografía y por la dificultad de competir de tú a tú con TSMC, Samsung Foundry o Intel Foundry

Micron eleva la memoria DDR5 para servidores de IA con módulos de 256 GB

Micron ha empezado a enviar muestras de sus nuevos módulos DDR5 RDIMM de 256 GB a socios del ecosistema de servidores, un paso relevante para una industria que está intentando exprimir cada vatio y cada ranura de memoria en centros de datos cada vez más condicionados por la Inteligencia Artificial. El anuncio no debe leerse todavía como disponibilidad comercial inmediata. La compañía habla de fase de muestreo y validación con plataformas actuales y de próxima generación. Aun así, el dato técnico es importante: se trata de módulos DDR5 registrados para servidor, construidos sobre tecnología DRAM 1-gamma, con capacidad para alcanzar hasta 9.200 MT/s y con empaquetado avanzado 3DS mediante TSV, una técnica que permite apilar varios chips de memoria y

La memoria se dispara: Adata prevé subidas del 40% en DRAM y NAND

La subida de precios de la memoria ya no parece un repunte puntual dentro del viejo ciclo de los semiconductores. Adata, uno de los grandes fabricantes taiwaneses de módulos DRAM y NAND, espera que los precios contractuales de ambos tipos de memoria suban al menos un 40 % en el segundo trimestre de 2026. El motivo principal vuelve a ser el mismo: la demanda de inteligencia artificial está absorbiendo capacidad y los grandes proveedores cloud están asegurando suministro a largo plazo antes de que el mercado se tense todavía más. La advertencia llega en un momento en el que la memoria se ha convertido en uno de los recursos más sensibles de toda la infraestructura tecnológica. Durante meses el foco

Q-CTRL reclama una ventaja cuántica práctica con una simulación 3.000 veces más rápida

La computación cuántica lleva años prometiendo acelerar problemas que los superordenadores clásicos resuelven con enorme dificultad. Hasta ahora, muchas demostraciones han sido importantes desde el punto de vista científico, pero difíciles de traducir a utilidad industrial inmediata. Q-CTRL acaba de situarse en ese terreno delicado con un anuncio ambicioso: asegura haber logrado evidencia de «ventaja cuántica práctica» en una simulación de materiales relevante para el sector energético, usando la plataforma IBM Quantum. La compañía afirma que su software de gestión de rendimiento permitió ejecutar en unos dos minutos un algoritmo cuántico que, con herramientas clásicas optimizadas, habría requerido más de 100 horas. El resultado se centra en una simulación fermiónica del modelo Fermi-Hubbard, una familia de problemas muy utilizada en

NVIDIA mira al espacio para aliviar el cuello de botella energético de la IA

La próxima gran frontera de los centros de datos de Inteligencia Artificial podría no estar en un parque industrial, junto a una subestación eléctrica o cerca de una planta de agua. Podría estar en órbita. La idea suena a ciencia ficción, pero ya ha entrado en la agenda de NVIDIA, Google, SpaceX, Starcloud y varias compañías espaciales que estudian cómo llevar parte del cómputo de IA fuera de la Tierra. La tesis es sencilla de enunciar y muy difícil de ejecutar: si los centros de datos terrestres empiezan a chocar con límites de energía, suelo, refrigeración, permisos y rechazo social, el espacio ofrece luz solar casi continua y una ubicación donde el calor puede disiparse por radiación. Sobre el papel,

NVIDIA ya no solo vende GPUs: financia la infraestructura de la IA

NVIDIA se ha convertido en algo más que el proveedor dominante de chips para inteligencia artificial. La compañía de Jensen Huang está usando su enorme generación de caja y su capitalización bursátil para financiar a buena parte del ecosistema que necesita para seguir creciendo: desarrolladores de modelos, neoclouds, operadores de centros de datos, fabricantes de fibra óptica, compañías de fotónica, empresas de networking y socios de silicio. El movimiento no es menor. Según CNBC, NVIDIA ya habría superado los 40.000 millones de dólares en compromisos de inversión en 2026, una cifra que confirma su transformación en una especie de banco industrial de la IA. La lógica es clara: si el cuello de botella de la inteligencia artificial está en la

SMIC cuestiona la obsesión por los 2 nm en plena guerra del chip

Zhang Rujing, fundador de SMIC, ha puesto palabras a una tensión que atraviesa toda la industria de los semiconductores: no todo el éxito se mide por llegar antes a los 3 nm o a los 2 nm. En una entrevista recogida por medios chinos, el directivo sostiene que esa lectura es un “error de concepto” porque reduce un mercado inmenso a una carrera muy visible, muy cara y reservada a unos pocos actores. La afirmación llega en un momento especialmente sensible para China. SMIC es la mayor fundición del país, pero sigue condicionada por las restricciones de exportación de equipos avanzados de litografía y por la dificultad de competir de tú a tú con TSMC, Samsung Foundry o Intel Foundry

Micron eleva la memoria DDR5 para servidores de IA con módulos de 256 GB

Micron ha empezado a enviar muestras de sus nuevos módulos DDR5 RDIMM de 256 GB a socios del ecosistema de servidores, un paso relevante para una industria que está intentando exprimir cada vatio y cada ranura de memoria en centros de datos cada vez más condicionados por la Inteligencia Artificial. El anuncio no debe leerse todavía como disponibilidad comercial inmediata. La compañía habla de fase de muestreo y validación con plataformas actuales y de próxima generación. Aun así, el dato técnico es importante: se trata de módulos DDR5 registrados para servidor, construidos sobre tecnología DRAM 1-gamma, con capacidad para alcanzar hasta 9.200 MT/s y con empaquetado avanzado 3DS mediante TSV, una técnica que permite apilar varios chips de memoria y

La memoria se dispara: Adata prevé subidas del 40% en DRAM y NAND

La subida de precios de la memoria ya no parece un repunte puntual dentro del viejo ciclo de los semiconductores. Adata, uno de los grandes fabricantes taiwaneses de módulos DRAM y NAND, espera que los precios contractuales de ambos tipos de memoria suban al menos un 40 % en el segundo trimestre de 2026. El motivo principal vuelve a ser el mismo: la demanda de inteligencia artificial está absorbiendo capacidad y los grandes proveedores cloud están asegurando suministro a largo plazo antes de que el mercado se tense todavía más. La advertencia llega en un momento en el que la memoria se ha convertido en uno de los recursos más sensibles de toda la infraestructura tecnológica. Durante meses el foco

Q-CTRL reclama una ventaja cuántica práctica con una simulación 3.000 veces más rápida

La computación cuántica lleva años prometiendo acelerar problemas que los superordenadores clásicos resuelven con enorme dificultad. Hasta ahora, muchas demostraciones han sido importantes desde el punto de vista científico, pero difíciles de traducir a utilidad industrial inmediata. Q-CTRL acaba de situarse en ese terreno delicado con un anuncio ambicioso: asegura haber logrado evidencia de «ventaja cuántica práctica» en una simulación de materiales relevante para el sector energético, usando la plataforma IBM Quantum. La compañía afirma que su software de gestión de rendimiento permitió ejecutar en unos dos minutos un algoritmo cuántico que, con herramientas clásicas optimizadas, habría requerido más de 100 horas. El resultado se centra en una simulación fermiónica del modelo Fermi-Hubbard, una familia de problemas muy utilizada en

NVIDIA mira al espacio para aliviar el cuello de botella energético de la IA

La próxima gran frontera de los centros de datos de Inteligencia Artificial podría no estar en un parque industrial, junto a una subestación eléctrica o cerca de una planta de agua. Podría estar en órbita. La idea suena a ciencia ficción, pero ya ha entrado en la agenda de NVIDIA, Google, SpaceX, Starcloud y varias compañías espaciales que estudian cómo llevar parte del cómputo de IA fuera de la Tierra. La tesis es sencilla de enunciar y muy difícil de ejecutar: si los centros de datos terrestres empiezan a chocar con límites de energía, suelo, refrigeración, permisos y rechazo social, el espacio ofrece luz solar casi continua y una ubicación donde el calor puede disiparse por radiación. Sobre el papel,

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×