Etiqueta: Dragonwing

¿El fin de la Ley de Moore… o el comienzo del “silicio sin silicio”? La apuesta china por transistores de bismuto y 3D monolítico

Durante casi 60 años, la Ley de Moore ha sido la brújula de la industria: cada 18–24 meses, más transistores por chip y, con ello, más potencia por euro y por vatio. Pero ese ciclo virtuoso ha chocado con un muro físico. A escalas de unos pocos nanómetros, los efectos cuánticos, las corrientes de fuga y la densidad térmica convierten la miniaturización adicional del silicio en un juego con retornos decrecientes. El resultado es visible: frecuencias estancadas alrededor de los 5 GHz, ganancias cada vez más modestas por nodo y una escalada de coste y complejidad que solo unas pocas fábricas pueden sostener. En paralelo, mientras Occidente afina FinFETs y GAAFETs de silicio y empuja la apilación 3D donde puede

“No todo es Rubin”: Positron AI defiende la vía air-cooled para la IA y promete 2–5× más eficiencia que NVIDIA en inferencia

Con NVIDIA marcando el paso del hardware de inteligencia artificial —de Blackwell a la nueva plataforma Rubin apoyada en CPUs Vera y contextos de hasta “millón de tokens”— podría parecer que el tablero está resuelto. Positron AI discrepa. Su CEO, Mitesh Agarwal, defiende que hay espacio para alternativas centradas en inferencias más baratas y eficientes, aptas para centros de datos por aire (air-cooled) y sin la urgencia de migrar a la refrigeración líquida que exigirían las GPU de NVIDIA de nueva hornada. La apuesta de Positron se materializa en Atlas (primera generación) y Asimov (la próxima), dos aceleradores que, según Agarwal, consumen entre 2 y 5 veces menos energía que una GPU de NVIDIA en cargas de inferencia y encajan

Broadcom presenta Thor Ultra, la primera NIC Ethernet de 800G para IA: abierta, compatible con UEC y lista para clústeres a escala de millones de tokens

Broadcom ha anunciado Thor Ultra, la que define como la primera tarjeta de red Ethernet (NIC) de 800G orientada a IA del mercado. El lanzamiento apunta a un objetivo claro: interconectar cientos de miles de XPUs (GPUs, CPUs y aceleradores afines) para entrenar e inferir con modelos de billones de parámetros en redes Ethernet abiertas y estandarizadas. La clave estratégica es su cumplimiento integral de la especificación del Ultra Ethernet Consortium (UEC), que moderniza RDMA para superárboles de conmutación a gran escala y evita el encierro en soluciones propietarias. Qué resuelve Thor Ultra: RDMA “rehecho” para IA masiva En redes de IA a gran escala, el RDMA clásico arrastra limitaciones: ausencia de multipathing efectivo, entrega estrictamente en orden, retransmisión poco

Starcloud quiere llevar los centros de datos al espacio: primer satélite con GPU H100 y promesa de energía 10× más barata

La carrera por escalar la computación de Inteligencia Artificial suma un nuevo escenario: la órbita terrestre. Starcloud, startup del programa NVIDIA Inception, prepara para noviembre el lanzamiento de Starcloud-1, un satélite de 60 kg —tamaño “frigorífico pequeño”— que marcará el debut de una GPU NVIDIA H100 en el espacio y aspira a demostrar que la inferencia y el preprocesado de datos pueden ejecutarse allí donde se generan, sin pasar por un CPD en tierra. La compañía defiende, además, que los centros de datos espaciales podrían abaratar 10× el coste energético y aliviar la presión de consumo en la red eléctrica terrestre. El plan es tan ambicioso como explícito: un CPD orbital de 5 gigavatios con paneles solares y radiadores de

Apple presenta el chip M5: salto en IA con GPU de 10 núcleos, memoria unificada de 153 GB/s y disponibilidad inmediata en MacBook Pro, iPad Pro y Vision Pro

Apple ha anunciado hoy M5, su nuevo sistema en chip (SoC) para ordenadores y dispositivos de realidad mixta, con un foco claro: llevar más rendimiento de Inteligencia Artificial al propio dispositivo, reduciendo la dependencia de la nube. La compañía confirma que el M5 debuta en el nuevo MacBook Pro de 14 pulgadas, en el iPad Pro y en Apple Vision Pro, todos disponibles para reserva desde hoy, 15 de octubre de 2025. El M5 está fabricado con tecnología de 3 nm de tercera generación y estrena una arquitectura gráfica de 10 núcleos que integra un Neural Accelerator en cada núcleo de la GPU. Con este enfoque, Apple asegura más de 4× de incremento de computación GPU para cargas de IA

Red Hat lleva la inferencia de IA distribuida a las cargas de trabajo productivas de IA con Red Hat AI 3

Red Hat, referente global en soluciones de software abierto, presentó Red Hat AI 3, una actualización de gran calado de su plataforma de inteligencia artificial para empresas. La nueva versión une las novedades de Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) y Red Hat OpenShift AI, con el objetivo de reducir la complejidad de la inferencia de alto rendimiento a gran escala. Con ello, las organizaciones pueden pasar con más rapidez de las pruebas de concepto a entornos productivos y trabajar mejor en torno a aplicaciones impulsadas por IA. Conforme las compañías dejan atrás la fase puramente experimental, se topan con retos notables: privacidad de los datos, control del gasto y gestión de múltiples modelos.

¿El fin de la Ley de Moore… o el comienzo del “silicio sin silicio”? La apuesta china por transistores de bismuto y 3D monolítico

Durante casi 60 años, la Ley de Moore ha sido la brújula de la industria: cada 18–24 meses, más transistores por chip y, con ello, más potencia por euro y por vatio. Pero ese ciclo virtuoso ha chocado con un muro físico. A escalas de unos pocos nanómetros, los efectos cuánticos, las corrientes de fuga y la densidad térmica convierten la miniaturización adicional del silicio en un juego con retornos decrecientes. El resultado es visible: frecuencias estancadas alrededor de los 5 GHz, ganancias cada vez más modestas por nodo y una escalada de coste y complejidad que solo unas pocas fábricas pueden sostener. En paralelo, mientras Occidente afina FinFETs y GAAFETs de silicio y empuja la apilación 3D donde puede

“No todo es Rubin”: Positron AI defiende la vía air-cooled para la IA y promete 2–5× más eficiencia que NVIDIA en inferencia

Con NVIDIA marcando el paso del hardware de inteligencia artificial —de Blackwell a la nueva plataforma Rubin apoyada en CPUs Vera y contextos de hasta “millón de tokens”— podría parecer que el tablero está resuelto. Positron AI discrepa. Su CEO, Mitesh Agarwal, defiende que hay espacio para alternativas centradas en inferencias más baratas y eficientes, aptas para centros de datos por aire (air-cooled) y sin la urgencia de migrar a la refrigeración líquida que exigirían las GPU de NVIDIA de nueva hornada. La apuesta de Positron se materializa en Atlas (primera generación) y Asimov (la próxima), dos aceleradores que, según Agarwal, consumen entre 2 y 5 veces menos energía que una GPU de NVIDIA en cargas de inferencia y encajan

Broadcom presenta Thor Ultra, la primera NIC Ethernet de 800G para IA: abierta, compatible con UEC y lista para clústeres a escala de millones de tokens

Broadcom ha anunciado Thor Ultra, la que define como la primera tarjeta de red Ethernet (NIC) de 800G orientada a IA del mercado. El lanzamiento apunta a un objetivo claro: interconectar cientos de miles de XPUs (GPUs, CPUs y aceleradores afines) para entrenar e inferir con modelos de billones de parámetros en redes Ethernet abiertas y estandarizadas. La clave estratégica es su cumplimiento integral de la especificación del Ultra Ethernet Consortium (UEC), que moderniza RDMA para superárboles de conmutación a gran escala y evita el encierro en soluciones propietarias. Qué resuelve Thor Ultra: RDMA “rehecho” para IA masiva En redes de IA a gran escala, el RDMA clásico arrastra limitaciones: ausencia de multipathing efectivo, entrega estrictamente en orden, retransmisión poco

Starcloud quiere llevar los centros de datos al espacio: primer satélite con GPU H100 y promesa de energía 10× más barata

La carrera por escalar la computación de Inteligencia Artificial suma un nuevo escenario: la órbita terrestre. Starcloud, startup del programa NVIDIA Inception, prepara para noviembre el lanzamiento de Starcloud-1, un satélite de 60 kg —tamaño “frigorífico pequeño”— que marcará el debut de una GPU NVIDIA H100 en el espacio y aspira a demostrar que la inferencia y el preprocesado de datos pueden ejecutarse allí donde se generan, sin pasar por un CPD en tierra. La compañía defiende, además, que los centros de datos espaciales podrían abaratar 10× el coste energético y aliviar la presión de consumo en la red eléctrica terrestre. El plan es tan ambicioso como explícito: un CPD orbital de 5 gigavatios con paneles solares y radiadores de

Apple presenta el chip M5: salto en IA con GPU de 10 núcleos, memoria unificada de 153 GB/s y disponibilidad inmediata en MacBook Pro, iPad Pro y Vision Pro

Apple ha anunciado hoy M5, su nuevo sistema en chip (SoC) para ordenadores y dispositivos de realidad mixta, con un foco claro: llevar más rendimiento de Inteligencia Artificial al propio dispositivo, reduciendo la dependencia de la nube. La compañía confirma que el M5 debuta en el nuevo MacBook Pro de 14 pulgadas, en el iPad Pro y en Apple Vision Pro, todos disponibles para reserva desde hoy, 15 de octubre de 2025. El M5 está fabricado con tecnología de 3 nm de tercera generación y estrena una arquitectura gráfica de 10 núcleos que integra un Neural Accelerator en cada núcleo de la GPU. Con este enfoque, Apple asegura más de 4× de incremento de computación GPU para cargas de IA

Red Hat lleva la inferencia de IA distribuida a las cargas de trabajo productivas de IA con Red Hat AI 3

Red Hat, referente global en soluciones de software abierto, presentó Red Hat AI 3, una actualización de gran calado de su plataforma de inteligencia artificial para empresas. La nueva versión une las novedades de Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) y Red Hat OpenShift AI, con el objetivo de reducir la complejidad de la inferencia de alto rendimiento a gran escala. Con ello, las organizaciones pueden pasar con más rapidez de las pruebas de concepto a entornos productivos y trabajar mejor en torno a aplicaciones impulsadas por IA. Conforme las compañías dejan atrás la fase puramente experimental, se topan con retos notables: privacidad de los datos, control del gasto y gestión de múltiples modelos.

×