Etiqueta: cadena de suministros

NetApp presenta AFX y AI Data Engine: su plataforma de datos “lista para IA” con escalado por nodos e integración nativa con NVIDIA y Azure

NetApp anunció un conjunto de productos que refuerzan su plataforma de datos empresarial para inteligencia artificial, con el foco puesto en pasar de pilotos a aplicaciones agenticas en producción. La novedad llega en dos frentes: NetApp AFX, un sistema all-flash con arquitectura desagregada basado en ONTAP, y NetApp AI Data Engine (AIDE), un servicio unificado que conecta, gobierna y acelera datos para IA sobre un único plano de control. Ambos se orientan a acelerar RAG e inferencia en entornos híbridos y multicloud, y podrán contratarse de forma directa o mediante suscripción Keystone STaaS. AFX: almacenamiento all-flash desagregado para “fábricas de IA” NetApp AFX separa rendimiento y capacidad para permitir que cada uno escale de forma independiente. El sistema, sustentado en

Red Hat AI 3 trae la inferencia distribuida a producción: una plataforma abierta para agentes, Kubernetes y cualquier acelerador

Red Hat ha anunciado Red Hat AI 3, una evolución mayor de su plataforma empresarial de inteligencia artificial que integra Red Hat AI Inference Server, RHEL AI y OpenShift AI para resolver el gran cuello de botella de 2025: operativizar la inferencia a escala (la fase del “hacer”) y pasar de pruebas de concepto a producción sin rehacer la infraestructura. La propuesta pivota sobre tres ideas: inferencia distribuida nativa en Kubernetes (llm-d), experiencia unificada de plataforma (MaaS interno, AI Hub, Gen AI Studio) y cimientos para IA agéntica con APIs y estándares abiertos. El movimiento llega cuando el mercado gira del entrenamiento a la inferencia masiva en tiempo real y a los agentes; y cuando los CIOs buscan recortar latencia,

Tenable Research revela que las organizaciones luchan por mantener el ritmo de los desafíos de seguridad en la nube e IA

La compañía Tenable Research dio a conocer su informe «El estado de la seguridad en la nube y en la IA 2025» donde se revela que la rápida evolución de los sistemas híbridos, multinube y de IA supera las estrategias de seguridad en la nube, creando nuevas capas de complejidad. En este estudio, se muestra como el 34% de las organizaciones con cargas de trabajo de IA ya sufrieron violaciones relacionadas con la tecnología, además, el 14% dijo no estar seguro. Ambientes complejos dominan, pero la seguridad no acompaña el ritmo El estudio revela que el 82% de las organizaciones trabaja actualmente con entornos híbridos, combinando infraestructuras locales y en la nube, mientras que el 63% confía en múltiples proveedores

El trabajo por horas de un robot humanoide: tope de 14 $/h y ahorros de seis cifras, según la hoja de cálculo de Dr. Pero Micic

La irrupción de los robots humanoides ya no es un futurible lejano, sino un asunto práctico que interesa a cualquier empresa que fabrica, almacena o presta servicios físicos. La gran pregunta es sencilla y contundente: ¿cuánto cuesta la hora de trabajo de un humanoide?. El futurista y consultor Dr. Pero Micic ha publicado un desglose de costes —con supuestos deliberadamente conservadores— que fija un techo razonable en 14 $/hora durante la fase inicial de despliegue. Con el efecto de escala y aprendizaje, defiende que el precio bajará por debajo de 10 $/h e incluso podría caer por debajo de 5 $/h a medio plazo. Este análisis, pensado para decisores no técnicos y medios generalistas de tecnología, parte de una premisa:

¿El fin de la Ley de Moore… o el comienzo del “silicio sin silicio”? La apuesta china por transistores de bismuto y 3D monolítico

Durante casi 60 años, la Ley de Moore ha sido la brújula de la industria: cada 18–24 meses, más transistores por chip y, con ello, más potencia por euro y por vatio. Pero ese ciclo virtuoso ha chocado con un muro físico. A escalas de unos pocos nanómetros, los efectos cuánticos, las corrientes de fuga y la densidad térmica convierten la miniaturización adicional del silicio en un juego con retornos decrecientes. El resultado es visible: frecuencias estancadas alrededor de los 5 GHz, ganancias cada vez más modestas por nodo y una escalada de coste y complejidad que solo unas pocas fábricas pueden sostener. En paralelo, mientras Occidente afina FinFETs y GAAFETs de silicio y empuja la apilación 3D donde puede

“No todo es Rubin”: Positron AI defiende la vía air-cooled para la IA y promete 2–5× más eficiencia que NVIDIA en inferencia

Con NVIDIA marcando el paso del hardware de inteligencia artificial —de Blackwell a la nueva plataforma Rubin apoyada en CPUs Vera y contextos de hasta “millón de tokens”— podría parecer que el tablero está resuelto. Positron AI discrepa. Su CEO, Mitesh Agarwal, defiende que hay espacio para alternativas centradas en inferencias más baratas y eficientes, aptas para centros de datos por aire (air-cooled) y sin la urgencia de migrar a la refrigeración líquida que exigirían las GPU de NVIDIA de nueva hornada. La apuesta de Positron se materializa en Atlas (primera generación) y Asimov (la próxima), dos aceleradores que, según Agarwal, consumen entre 2 y 5 veces menos energía que una GPU de NVIDIA en cargas de inferencia y encajan

NetApp presenta AFX y AI Data Engine: su plataforma de datos “lista para IA” con escalado por nodos e integración nativa con NVIDIA y Azure

NetApp anunció un conjunto de productos que refuerzan su plataforma de datos empresarial para inteligencia artificial, con el foco puesto en pasar de pilotos a aplicaciones agenticas en producción. La novedad llega en dos frentes: NetApp AFX, un sistema all-flash con arquitectura desagregada basado en ONTAP, y NetApp AI Data Engine (AIDE), un servicio unificado que conecta, gobierna y acelera datos para IA sobre un único plano de control. Ambos se orientan a acelerar RAG e inferencia en entornos híbridos y multicloud, y podrán contratarse de forma directa o mediante suscripción Keystone STaaS. AFX: almacenamiento all-flash desagregado para “fábricas de IA” NetApp AFX separa rendimiento y capacidad para permitir que cada uno escale de forma independiente. El sistema, sustentado en

Red Hat AI 3 trae la inferencia distribuida a producción: una plataforma abierta para agentes, Kubernetes y cualquier acelerador

Red Hat ha anunciado Red Hat AI 3, una evolución mayor de su plataforma empresarial de inteligencia artificial que integra Red Hat AI Inference Server, RHEL AI y OpenShift AI para resolver el gran cuello de botella de 2025: operativizar la inferencia a escala (la fase del “hacer”) y pasar de pruebas de concepto a producción sin rehacer la infraestructura. La propuesta pivota sobre tres ideas: inferencia distribuida nativa en Kubernetes (llm-d), experiencia unificada de plataforma (MaaS interno, AI Hub, Gen AI Studio) y cimientos para IA agéntica con APIs y estándares abiertos. El movimiento llega cuando el mercado gira del entrenamiento a la inferencia masiva en tiempo real y a los agentes; y cuando los CIOs buscan recortar latencia,

Tenable Research revela que las organizaciones luchan por mantener el ritmo de los desafíos de seguridad en la nube e IA

La compañía Tenable Research dio a conocer su informe «El estado de la seguridad en la nube y en la IA 2025» donde se revela que la rápida evolución de los sistemas híbridos, multinube y de IA supera las estrategias de seguridad en la nube, creando nuevas capas de complejidad. En este estudio, se muestra como el 34% de las organizaciones con cargas de trabajo de IA ya sufrieron violaciones relacionadas con la tecnología, además, el 14% dijo no estar seguro. Ambientes complejos dominan, pero la seguridad no acompaña el ritmo El estudio revela que el 82% de las organizaciones trabaja actualmente con entornos híbridos, combinando infraestructuras locales y en la nube, mientras que el 63% confía en múltiples proveedores

El trabajo por horas de un robot humanoide: tope de 14 $/h y ahorros de seis cifras, según la hoja de cálculo de Dr. Pero Micic

La irrupción de los robots humanoides ya no es un futurible lejano, sino un asunto práctico que interesa a cualquier empresa que fabrica, almacena o presta servicios físicos. La gran pregunta es sencilla y contundente: ¿cuánto cuesta la hora de trabajo de un humanoide?. El futurista y consultor Dr. Pero Micic ha publicado un desglose de costes —con supuestos deliberadamente conservadores— que fija un techo razonable en 14 $/hora durante la fase inicial de despliegue. Con el efecto de escala y aprendizaje, defiende que el precio bajará por debajo de 10 $/h e incluso podría caer por debajo de 5 $/h a medio plazo. Este análisis, pensado para decisores no técnicos y medios generalistas de tecnología, parte de una premisa:

¿El fin de la Ley de Moore… o el comienzo del “silicio sin silicio”? La apuesta china por transistores de bismuto y 3D monolítico

Durante casi 60 años, la Ley de Moore ha sido la brújula de la industria: cada 18–24 meses, más transistores por chip y, con ello, más potencia por euro y por vatio. Pero ese ciclo virtuoso ha chocado con un muro físico. A escalas de unos pocos nanómetros, los efectos cuánticos, las corrientes de fuga y la densidad térmica convierten la miniaturización adicional del silicio en un juego con retornos decrecientes. El resultado es visible: frecuencias estancadas alrededor de los 5 GHz, ganancias cada vez más modestas por nodo y una escalada de coste y complejidad que solo unas pocas fábricas pueden sostener. En paralelo, mientras Occidente afina FinFETs y GAAFETs de silicio y empuja la apilación 3D donde puede

“No todo es Rubin”: Positron AI defiende la vía air-cooled para la IA y promete 2–5× más eficiencia que NVIDIA en inferencia

Con NVIDIA marcando el paso del hardware de inteligencia artificial —de Blackwell a la nueva plataforma Rubin apoyada en CPUs Vera y contextos de hasta “millón de tokens”— podría parecer que el tablero está resuelto. Positron AI discrepa. Su CEO, Mitesh Agarwal, defiende que hay espacio para alternativas centradas en inferencias más baratas y eficientes, aptas para centros de datos por aire (air-cooled) y sin la urgencia de migrar a la refrigeración líquida que exigirían las GPU de NVIDIA de nueva hornada. La apuesta de Positron se materializa en Atlas (primera generación) y Asimov (la próxima), dos aceleradores que, según Agarwal, consumen entre 2 y 5 veces menos energía que una GPU de NVIDIA en cargas de inferencia y encajan

×