Etiqueta: Zscaler

NVIDIA compra SchedMD, la empresa detrás de Slurm, para reforzar el software “invisible” que mueve la IA y la supercomputación

NVIDIA ha anunciado la adquisición de SchedMD, conocida por ser el principal desarrollador de Slurm, uno de los sistemas de gestión de cargas de trabajo (workload manager) más utilizados en HPC y, cada vez más, en clústeres de IA. El mensaje oficial busca despejar, desde el primer minuto, la gran pregunta que siempre aparece cuando un gigante compra una pieza crítica del ecosistema: Slurm seguirá siendo open source y “vendor-neutral” (neutral respecto a proveedores), manteniendo su disponibilidad para la comunidad y para entornos heterogéneos. Slurm es el tipo de software que rara vez sale en las fotos, pero sin el que casi nada funciona en un clúster moderno. En la práctica, es el “director de orquesta” que decide qué trabajo

Predicciones 2026: los agentes de IA tendrán un rol dual en la batalla por la ciberseguridad

La inteligencia artificial se ha convertido en un elemento decisivo que beneficia tanto a quienes atacan como a quienes se defienden. En este escenario, José María Alonso, country manager de Snowflake en España y Portugal, señala tres grandes tendencias que definirán la evolución de esta particular carrera tecnológica de cara a 2026. Los agentes cibernéticos se convertirán en armas en la próxima ola de ciberdelincuencia La carrera armamentística de la ciberseguridad siempre se ha definido por el constante tira y afloja entre atacantes y defensores, pero el surgimiento de agentes de IA capaces de investigar, idear y ejecutar ataques desequilibrará la balanza de forma alarmante. Para 2026, el ciberdelito agéntico se convertirá en un problema de primera línea, con los

Cohesity y Google Cloud amplían su alianza para reforzar la ciberresiliencia y acelerar la IA empresarial con foco en soberanía del dato

Cohesity ha anunciado una colaboración estratégica ampliada y de varios años con Google Cloud con un objetivo ambicioso: convertir la protección del dato —copias inmutables, recuperación “limpia” y gobierno— en la base sobre la que las empresas puedan adoptar inteligencia artificial a escala sin disparar el riesgo de seguridad ni chocar con requisitos regulatorios de residencia y soberanía. El anuncio, fechado el 16 de diciembre de 2025, llega en un momento en el que muchas organizaciones se sienten atrapadas entre dos fuerzas que crecen a la vez: por un lado, la presión para exprimir valor de grandes volúmenes de datos (muchos de ellos no estructurados) usando modelos y asistentes; por otro, la realidad de que los incidentes de ciberseguridad no

Lisa Su (AMD) refuerza su apuesta por China en plena reconfiguración del tablero global de chips

La visita de Lisa Su, consejera delegada de AMD, a China ha dejado un mensaje claro: la compañía quiere profundizar su presencia e inversión en el país justo cuando la relación tecnológica entre Washington y Pekín vuelve a tensarse —y, a la vez, a buscar nuevas fórmulas de cooperación— alrededor de la inteligencia artificial y los semiconductores. Según la información difundida por medios asiáticos, Su se ha reunido estos días con actores clave del ecosistema chino, en una agenda que combina industria, diplomacia y narrativa estratégica. Por un lado, la directiva visitó Lenovo en Pekín y conversó con su presidente, Yang Yuanqing, en un momento en el que el PC vive una nueva ola de renovación alrededor del concepto de

NVIDIA abre su “stack” para agentes de IA con Nemotron 3: modelos abiertos, MoE híbrido y un contexto de 1.000.000 de tokens

NVIDIA ha dado un paso que apunta directamente al corazón de la próxima ola de software: los sistemas multiagente. La compañía ha anunciado Nemotron 3, una nueva familia de modelos abiertos —en tamaños Nano, Super y Ultra— acompañada de datasets y librerías para entrenamiento y postentrenamiento, con un objetivo claro: que desarrollar agentes especializados sea más barato, más transparente y más fácil de llevar a producción. La narrativa no es casual. El mercado está dejando atrás el “chatbot único” y abrazando arquitecturas donde varios agentes se reparten tareas, se coordinan y se corrigen entre sí. Pero esa coordinación tiene un precio: más tokens, más latencia, más costes de inferencia y más riesgo de “deriva de contexto” cuando los flujos se

UC San Diego refuerza su investigación en inferencia de LLM con un sistema NVIDIA DGX B200

La carrera por servir modelos de lenguaje con baja latencia ya no se decide solo en papers y benchmarks: cada vez más, se gana (o se pierde) en el laboratorio de sistemas, donde el cuello de botella suele estar en cómo se “sirve” el modelo en producción. En ese contexto, el Hao AI Lab de la University of California San Diego (UC San Diego) ha incorporado un sistema NVIDIA DGX B200 para acelerar su trabajo en inferencia de grandes modelos, una pieza de infraestructura que también queda disponible para la comunidad universitaria a través del San Diego Supercomputer Center. La noticia tiene interés más allá del titular de “nuevo hardware”: varios enfoques que hoy se consideran estándar —o, como mínimo,

NVIDIA compra SchedMD, la empresa detrás de Slurm, para reforzar el software “invisible” que mueve la IA y la supercomputación

NVIDIA ha anunciado la adquisición de SchedMD, conocida por ser el principal desarrollador de Slurm, uno de los sistemas de gestión de cargas de trabajo (workload manager) más utilizados en HPC y, cada vez más, en clústeres de IA. El mensaje oficial busca despejar, desde el primer minuto, la gran pregunta que siempre aparece cuando un gigante compra una pieza crítica del ecosistema: Slurm seguirá siendo open source y “vendor-neutral” (neutral respecto a proveedores), manteniendo su disponibilidad para la comunidad y para entornos heterogéneos. Slurm es el tipo de software que rara vez sale en las fotos, pero sin el que casi nada funciona en un clúster moderno. En la práctica, es el “director de orquesta” que decide qué trabajo

Predicciones 2026: los agentes de IA tendrán un rol dual en la batalla por la ciberseguridad

La inteligencia artificial se ha convertido en un elemento decisivo que beneficia tanto a quienes atacan como a quienes se defienden. En este escenario, José María Alonso, country manager de Snowflake en España y Portugal, señala tres grandes tendencias que definirán la evolución de esta particular carrera tecnológica de cara a 2026. Los agentes cibernéticos se convertirán en armas en la próxima ola de ciberdelincuencia La carrera armamentística de la ciberseguridad siempre se ha definido por el constante tira y afloja entre atacantes y defensores, pero el surgimiento de agentes de IA capaces de investigar, idear y ejecutar ataques desequilibrará la balanza de forma alarmante. Para 2026, el ciberdelito agéntico se convertirá en un problema de primera línea, con los

Cohesity y Google Cloud amplían su alianza para reforzar la ciberresiliencia y acelerar la IA empresarial con foco en soberanía del dato

Cohesity ha anunciado una colaboración estratégica ampliada y de varios años con Google Cloud con un objetivo ambicioso: convertir la protección del dato —copias inmutables, recuperación “limpia” y gobierno— en la base sobre la que las empresas puedan adoptar inteligencia artificial a escala sin disparar el riesgo de seguridad ni chocar con requisitos regulatorios de residencia y soberanía. El anuncio, fechado el 16 de diciembre de 2025, llega en un momento en el que muchas organizaciones se sienten atrapadas entre dos fuerzas que crecen a la vez: por un lado, la presión para exprimir valor de grandes volúmenes de datos (muchos de ellos no estructurados) usando modelos y asistentes; por otro, la realidad de que los incidentes de ciberseguridad no

Lisa Su (AMD) refuerza su apuesta por China en plena reconfiguración del tablero global de chips

La visita de Lisa Su, consejera delegada de AMD, a China ha dejado un mensaje claro: la compañía quiere profundizar su presencia e inversión en el país justo cuando la relación tecnológica entre Washington y Pekín vuelve a tensarse —y, a la vez, a buscar nuevas fórmulas de cooperación— alrededor de la inteligencia artificial y los semiconductores. Según la información difundida por medios asiáticos, Su se ha reunido estos días con actores clave del ecosistema chino, en una agenda que combina industria, diplomacia y narrativa estratégica. Por un lado, la directiva visitó Lenovo en Pekín y conversó con su presidente, Yang Yuanqing, en un momento en el que el PC vive una nueva ola de renovación alrededor del concepto de

NVIDIA abre su “stack” para agentes de IA con Nemotron 3: modelos abiertos, MoE híbrido y un contexto de 1.000.000 de tokens

NVIDIA ha dado un paso que apunta directamente al corazón de la próxima ola de software: los sistemas multiagente. La compañía ha anunciado Nemotron 3, una nueva familia de modelos abiertos —en tamaños Nano, Super y Ultra— acompañada de datasets y librerías para entrenamiento y postentrenamiento, con un objetivo claro: que desarrollar agentes especializados sea más barato, más transparente y más fácil de llevar a producción. La narrativa no es casual. El mercado está dejando atrás el “chatbot único” y abrazando arquitecturas donde varios agentes se reparten tareas, se coordinan y se corrigen entre sí. Pero esa coordinación tiene un precio: más tokens, más latencia, más costes de inferencia y más riesgo de “deriva de contexto” cuando los flujos se

UC San Diego refuerza su investigación en inferencia de LLM con un sistema NVIDIA DGX B200

La carrera por servir modelos de lenguaje con baja latencia ya no se decide solo en papers y benchmarks: cada vez más, se gana (o se pierde) en el laboratorio de sistemas, donde el cuello de botella suele estar en cómo se “sirve” el modelo en producción. En ese contexto, el Hao AI Lab de la University of California San Diego (UC San Diego) ha incorporado un sistema NVIDIA DGX B200 para acelerar su trabajo en inferencia de grandes modelos, una pieza de infraestructura que también queda disponible para la comunidad universitaria a través del San Diego Supercomputer Center. La noticia tiene interés más allá del titular de “nuevo hardware”: varios enfoques que hoy se consideran estándar —o, como mínimo,

×