Etiqueta: Red.es

El trabajo por horas de un robot humanoide: tope de 14 $/h y ahorros de seis cifras, según la hoja de cálculo de Dr. Pero Micic

La irrupción de los robots humanoides ya no es un futurible lejano, sino un asunto práctico que interesa a cualquier empresa que fabrica, almacena o presta servicios físicos. La gran pregunta es sencilla y contundente: ¿cuánto cuesta la hora de trabajo de un humanoide?. El futurista y consultor Dr. Pero Micic ha publicado un desglose de costes —con supuestos deliberadamente conservadores— que fija un techo razonable en 14 $/hora durante la fase inicial de despliegue. Con el efecto de escala y aprendizaje, defiende que el precio bajará por debajo de 10 $/h e incluso podría caer por debajo de 5 $/h a medio plazo. Este análisis, pensado para decisores no técnicos y medios generalistas de tecnología, parte de una premisa:

¿El fin de la Ley de Moore… o el comienzo del “silicio sin silicio”? La apuesta china por transistores de bismuto y 3D monolítico

Durante casi 60 años, la Ley de Moore ha sido la brújula de la industria: cada 18–24 meses, más transistores por chip y, con ello, más potencia por euro y por vatio. Pero ese ciclo virtuoso ha chocado con un muro físico. A escalas de unos pocos nanómetros, los efectos cuánticos, las corrientes de fuga y la densidad térmica convierten la miniaturización adicional del silicio en un juego con retornos decrecientes. El resultado es visible: frecuencias estancadas alrededor de los 5 GHz, ganancias cada vez más modestas por nodo y una escalada de coste y complejidad que solo unas pocas fábricas pueden sostener. En paralelo, mientras Occidente afina FinFETs y GAAFETs de silicio y empuja la apilación 3D donde puede

“No todo es Rubin”: Positron AI defiende la vía air-cooled para la IA y promete 2–5× más eficiencia que NVIDIA en inferencia

Con NVIDIA marcando el paso del hardware de inteligencia artificial —de Blackwell a la nueva plataforma Rubin apoyada en CPUs Vera y contextos de hasta “millón de tokens”— podría parecer que el tablero está resuelto. Positron AI discrepa. Su CEO, Mitesh Agarwal, defiende que hay espacio para alternativas centradas en inferencias más baratas y eficientes, aptas para centros de datos por aire (air-cooled) y sin la urgencia de migrar a la refrigeración líquida que exigirían las GPU de NVIDIA de nueva hornada. La apuesta de Positron se materializa en Atlas (primera generación) y Asimov (la próxima), dos aceleradores que, según Agarwal, consumen entre 2 y 5 veces menos energía que una GPU de NVIDIA en cargas de inferencia y encajan

Broadcom presenta Thor Ultra, la primera NIC Ethernet de 800G para IA: abierta, compatible con UEC y lista para clústeres a escala de millones de tokens

Broadcom ha anunciado Thor Ultra, la que define como la primera tarjeta de red Ethernet (NIC) de 800G orientada a IA del mercado. El lanzamiento apunta a un objetivo claro: interconectar cientos de miles de XPUs (GPUs, CPUs y aceleradores afines) para entrenar e inferir con modelos de billones de parámetros en redes Ethernet abiertas y estandarizadas. La clave estratégica es su cumplimiento integral de la especificación del Ultra Ethernet Consortium (UEC), que moderniza RDMA para superárboles de conmutación a gran escala y evita el encierro en soluciones propietarias. Qué resuelve Thor Ultra: RDMA “rehecho” para IA masiva En redes de IA a gran escala, el RDMA clásico arrastra limitaciones: ausencia de multipathing efectivo, entrega estrictamente en orden, retransmisión poco

Starcloud quiere llevar los centros de datos al espacio: primer satélite con GPU H100 y promesa de energía 10× más barata

La carrera por escalar la computación de Inteligencia Artificial suma un nuevo escenario: la órbita terrestre. Starcloud, startup del programa NVIDIA Inception, prepara para noviembre el lanzamiento de Starcloud-1, un satélite de 60 kg —tamaño “frigorífico pequeño”— que marcará el debut de una GPU NVIDIA H100 en el espacio y aspira a demostrar que la inferencia y el preprocesado de datos pueden ejecutarse allí donde se generan, sin pasar por un CPD en tierra. La compañía defiende, además, que los centros de datos espaciales podrían abaratar 10× el coste energético y aliviar la presión de consumo en la red eléctrica terrestre. El plan es tan ambicioso como explícito: un CPD orbital de 5 gigavatios con paneles solares y radiadores de

Apple presenta el chip M5: salto en IA con GPU de 10 núcleos, memoria unificada de 153 GB/s y disponibilidad inmediata en MacBook Pro, iPad Pro y Vision Pro

Apple ha anunciado hoy M5, su nuevo sistema en chip (SoC) para ordenadores y dispositivos de realidad mixta, con un foco claro: llevar más rendimiento de Inteligencia Artificial al propio dispositivo, reduciendo la dependencia de la nube. La compañía confirma que el M5 debuta en el nuevo MacBook Pro de 14 pulgadas, en el iPad Pro y en Apple Vision Pro, todos disponibles para reserva desde hoy, 15 de octubre de 2025. El M5 está fabricado con tecnología de 3 nm de tercera generación y estrena una arquitectura gráfica de 10 núcleos que integra un Neural Accelerator en cada núcleo de la GPU. Con este enfoque, Apple asegura más de 4× de incremento de computación GPU para cargas de IA

El trabajo por horas de un robot humanoide: tope de 14 $/h y ahorros de seis cifras, según la hoja de cálculo de Dr. Pero Micic

La irrupción de los robots humanoides ya no es un futurible lejano, sino un asunto práctico que interesa a cualquier empresa que fabrica, almacena o presta servicios físicos. La gran pregunta es sencilla y contundente: ¿cuánto cuesta la hora de trabajo de un humanoide?. El futurista y consultor Dr. Pero Micic ha publicado un desglose de costes —con supuestos deliberadamente conservadores— que fija un techo razonable en 14 $/hora durante la fase inicial de despliegue. Con el efecto de escala y aprendizaje, defiende que el precio bajará por debajo de 10 $/h e incluso podría caer por debajo de 5 $/h a medio plazo. Este análisis, pensado para decisores no técnicos y medios generalistas de tecnología, parte de una premisa:

¿El fin de la Ley de Moore… o el comienzo del “silicio sin silicio”? La apuesta china por transistores de bismuto y 3D monolítico

Durante casi 60 años, la Ley de Moore ha sido la brújula de la industria: cada 18–24 meses, más transistores por chip y, con ello, más potencia por euro y por vatio. Pero ese ciclo virtuoso ha chocado con un muro físico. A escalas de unos pocos nanómetros, los efectos cuánticos, las corrientes de fuga y la densidad térmica convierten la miniaturización adicional del silicio en un juego con retornos decrecientes. El resultado es visible: frecuencias estancadas alrededor de los 5 GHz, ganancias cada vez más modestas por nodo y una escalada de coste y complejidad que solo unas pocas fábricas pueden sostener. En paralelo, mientras Occidente afina FinFETs y GAAFETs de silicio y empuja la apilación 3D donde puede

“No todo es Rubin”: Positron AI defiende la vía air-cooled para la IA y promete 2–5× más eficiencia que NVIDIA en inferencia

Con NVIDIA marcando el paso del hardware de inteligencia artificial —de Blackwell a la nueva plataforma Rubin apoyada en CPUs Vera y contextos de hasta “millón de tokens”— podría parecer que el tablero está resuelto. Positron AI discrepa. Su CEO, Mitesh Agarwal, defiende que hay espacio para alternativas centradas en inferencias más baratas y eficientes, aptas para centros de datos por aire (air-cooled) y sin la urgencia de migrar a la refrigeración líquida que exigirían las GPU de NVIDIA de nueva hornada. La apuesta de Positron se materializa en Atlas (primera generación) y Asimov (la próxima), dos aceleradores que, según Agarwal, consumen entre 2 y 5 veces menos energía que una GPU de NVIDIA en cargas de inferencia y encajan

Broadcom presenta Thor Ultra, la primera NIC Ethernet de 800G para IA: abierta, compatible con UEC y lista para clústeres a escala de millones de tokens

Broadcom ha anunciado Thor Ultra, la que define como la primera tarjeta de red Ethernet (NIC) de 800G orientada a IA del mercado. El lanzamiento apunta a un objetivo claro: interconectar cientos de miles de XPUs (GPUs, CPUs y aceleradores afines) para entrenar e inferir con modelos de billones de parámetros en redes Ethernet abiertas y estandarizadas. La clave estratégica es su cumplimiento integral de la especificación del Ultra Ethernet Consortium (UEC), que moderniza RDMA para superárboles de conmutación a gran escala y evita el encierro en soluciones propietarias. Qué resuelve Thor Ultra: RDMA “rehecho” para IA masiva En redes de IA a gran escala, el RDMA clásico arrastra limitaciones: ausencia de multipathing efectivo, entrega estrictamente en orden, retransmisión poco

Starcloud quiere llevar los centros de datos al espacio: primer satélite con GPU H100 y promesa de energía 10× más barata

La carrera por escalar la computación de Inteligencia Artificial suma un nuevo escenario: la órbita terrestre. Starcloud, startup del programa NVIDIA Inception, prepara para noviembre el lanzamiento de Starcloud-1, un satélite de 60 kg —tamaño “frigorífico pequeño”— que marcará el debut de una GPU NVIDIA H100 en el espacio y aspira a demostrar que la inferencia y el preprocesado de datos pueden ejecutarse allí donde se generan, sin pasar por un CPD en tierra. La compañía defiende, además, que los centros de datos espaciales podrían abaratar 10× el coste energético y aliviar la presión de consumo en la red eléctrica terrestre. El plan es tan ambicioso como explícito: un CPD orbital de 5 gigavatios con paneles solares y radiadores de

Apple presenta el chip M5: salto en IA con GPU de 10 núcleos, memoria unificada de 153 GB/s y disponibilidad inmediata en MacBook Pro, iPad Pro y Vision Pro

Apple ha anunciado hoy M5, su nuevo sistema en chip (SoC) para ordenadores y dispositivos de realidad mixta, con un foco claro: llevar más rendimiento de Inteligencia Artificial al propio dispositivo, reduciendo la dependencia de la nube. La compañía confirma que el M5 debuta en el nuevo MacBook Pro de 14 pulgadas, en el iPad Pro y en Apple Vision Pro, todos disponibles para reserva desde hoy, 15 de octubre de 2025. El M5 está fabricado con tecnología de 3 nm de tercera generación y estrena una arquitectura gráfica de 10 núcleos que integra un Neural Accelerator en cada núcleo de la GPU. Con este enfoque, Apple asegura más de 4× de incremento de computación GPU para cargas de IA

×