Etiqueta: SentinelOne

Intel vs AMD en 2025: la batalla x86 sigue… pero ARM ya se ha sentado a la mesa

Durante años, la pregunta “¿Intel o AMD?” se respondía casi por costumbre: una u otra marca, según la oferta del momento y el tipo de PC. En 2025, esa comparación sigue siendo relevante, pero se ha vuelto más compleja por una razón muy concreta: el salto del mercado hacia la eficiencia energética y la “computación con IA” (con NPUs integradas) está abriendo una puerta enorme a los chips basados en ARM, tanto en portátiles como en centros de datos. El resultado es un escenario a tres bandas: Intel y AMD compiten con x86 en escritorio, portátil y servidor, mientras ARM gana terreno donde el consumo, la autonomía y el coste por vatio importan más que nunca. Lo esencial: Intel y

DNP y Canon agitan el tablero de la litografía: una plantilla “1,4 nm” que promete recortar costes energéticos… sin garantías de adopción

La carrera hacia los nodos más avanzados lleva años marcada por una palabra: EUV. La litografía ultravioleta extrema se ha convertido en el cuello de botella más caro —y energéticamente exigente— de la fabricación de chips punteros. Por eso, cada vez que aparece una alternativa mínimamente creíble, el mercado toma nota. Esta semana, Dai Nippon Printing (DNP) ha puesto una pieza nueva sobre el tablero: una plantilla para nanoimprint lithography (NIL) capaz de transferir patrones con líneas de 10 nm, que la compañía asocia con procesos equivalentes a la generación de 1,4 nm. DNP asegura que su objetivo es fabricación en masa en 2027 y fija incluso una meta comercial: elevar las ventas de NIL hasta 4.000 millones de yenes

Telecomunicaciones prorroga hasta 2026 el uso experimental de 2.400–2.410 MHz para radioaficionados en enlace con el satélite QO-100

La Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales (SETID) ha renovado la autorización temporal y experimental que permite a los radioaficionados españoles emitir en el tramo 2.400 a 2.410 MHz, una ventana muy concreta dentro de la banda de 2,4 GHz. La prórroga extiende la validez hasta el 26 de diciembre de 2026, dando continuidad a un permiso que se viene renovando de forma recurrente desde marzo de 2009 y que la Unión de Radioaficionados Españoles (URE) había solicitado mantener un año más. La decisión, lejos de ser un simple trámite administrativo, tiene un valor práctico para una comunidad que lleva años usando esta porción de espectro como campo de pruebas real para comunicaciones en microondas, especialmente en satélite.

NVIDIA redibuja la inferencia con Rubin CPX: menos HBM, más economía de contexto

En los últimos días se ha viralizado un argumento contundente: que NVIDIA “ha admitido” que su arquitectura está “rota” porque ha presentado un chip para Inteligencia Artificial que prescinde de HBM y recurre a memoria GDDR. La frase suena a titular perfecto para redes sociales, pero la realidad es más interesante —y, sobre todo, más matizada—: NVIDIA está reaccionando a un cambio de fondo en cómo se consume la Inteligencia Artificial en producción, donde la batalla ya no es solo entrenar modelos, sino servirlos de forma rentable cuando el contexto se dispara a cientos de miles o millones de tokens. La pieza que explica este giro es Rubin CPX, un acelerador diseñado específicamente para una parte concreta de la inferencia:

Meta compra Manus y confirma la tendencia de 2025: los gigantes “se comen” el futuro de la Inteligencia Artificial

El anuncio de que Manus pasa a integrarse en Meta se lee, a simple vista, como una operación más dentro del frenesí de la Inteligencia Artificial. Pero, mirado con perspectiva, encaja en un patrón cada vez más claro: los grandes jugadores no están comprando “solo” tecnología, están comprando posición. Es decir: talento, propiedad intelectual, acceso a datos, canal de distribución y, sobre todo, capacidad de marcar el estándar de facto en la próxima capa de software. En el caso de Manus, la lectura es directa: Meta refuerza su apuesta por los agentes de propósito general (capaces de ejecutar tareas complejas de principio a fin) y se asegura un equipo y una plataforma que, según se ha venido reportando, ya mostraba

QEMU 10.2 refuerza la virtualización moderna: más rendimiento con io_uring, “live update” y un mensaje claro sobre seguridad

QEMU, uno de los pilares silenciosos del ecosistema de virtualización y emulación de código abierto, ha cerrado 2025 con una actualización de calado. La versión 10.2.0, anunciada oficialmente el 24 de diciembre (con el tarball publicado en la página de descargas el 23 de diciembre), llega con un ritmo de desarrollo que vuelve a poner en perspectiva el tamaño del proyecto: más de 2.300 commits firmados por 188 autores para un lanzamiento que impacta desde laboratorios de arquitectura hasta plataformas de nube privada y entornos enterprise. En un mercado donde gran parte de la conversación gira alrededor de hipervisores “de marca” o suites completas, QEMU sigue jugando otro partido: el del motor que hace posible que muchas capas superiores —gestores,

Intel vs AMD en 2025: la batalla x86 sigue… pero ARM ya se ha sentado a la mesa

Durante años, la pregunta “¿Intel o AMD?” se respondía casi por costumbre: una u otra marca, según la oferta del momento y el tipo de PC. En 2025, esa comparación sigue siendo relevante, pero se ha vuelto más compleja por una razón muy concreta: el salto del mercado hacia la eficiencia energética y la “computación con IA” (con NPUs integradas) está abriendo una puerta enorme a los chips basados en ARM, tanto en portátiles como en centros de datos. El resultado es un escenario a tres bandas: Intel y AMD compiten con x86 en escritorio, portátil y servidor, mientras ARM gana terreno donde el consumo, la autonomía y el coste por vatio importan más que nunca. Lo esencial: Intel y

DNP y Canon agitan el tablero de la litografía: una plantilla “1,4 nm” que promete recortar costes energéticos… sin garantías de adopción

La carrera hacia los nodos más avanzados lleva años marcada por una palabra: EUV. La litografía ultravioleta extrema se ha convertido en el cuello de botella más caro —y energéticamente exigente— de la fabricación de chips punteros. Por eso, cada vez que aparece una alternativa mínimamente creíble, el mercado toma nota. Esta semana, Dai Nippon Printing (DNP) ha puesto una pieza nueva sobre el tablero: una plantilla para nanoimprint lithography (NIL) capaz de transferir patrones con líneas de 10 nm, que la compañía asocia con procesos equivalentes a la generación de 1,4 nm. DNP asegura que su objetivo es fabricación en masa en 2027 y fija incluso una meta comercial: elevar las ventas de NIL hasta 4.000 millones de yenes

Telecomunicaciones prorroga hasta 2026 el uso experimental de 2.400–2.410 MHz para radioaficionados en enlace con el satélite QO-100

La Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales (SETID) ha renovado la autorización temporal y experimental que permite a los radioaficionados españoles emitir en el tramo 2.400 a 2.410 MHz, una ventana muy concreta dentro de la banda de 2,4 GHz. La prórroga extiende la validez hasta el 26 de diciembre de 2026, dando continuidad a un permiso que se viene renovando de forma recurrente desde marzo de 2009 y que la Unión de Radioaficionados Españoles (URE) había solicitado mantener un año más. La decisión, lejos de ser un simple trámite administrativo, tiene un valor práctico para una comunidad que lleva años usando esta porción de espectro como campo de pruebas real para comunicaciones en microondas, especialmente en satélite.

NVIDIA redibuja la inferencia con Rubin CPX: menos HBM, más economía de contexto

En los últimos días se ha viralizado un argumento contundente: que NVIDIA “ha admitido” que su arquitectura está “rota” porque ha presentado un chip para Inteligencia Artificial que prescinde de HBM y recurre a memoria GDDR. La frase suena a titular perfecto para redes sociales, pero la realidad es más interesante —y, sobre todo, más matizada—: NVIDIA está reaccionando a un cambio de fondo en cómo se consume la Inteligencia Artificial en producción, donde la batalla ya no es solo entrenar modelos, sino servirlos de forma rentable cuando el contexto se dispara a cientos de miles o millones de tokens. La pieza que explica este giro es Rubin CPX, un acelerador diseñado específicamente para una parte concreta de la inferencia:

Meta compra Manus y confirma la tendencia de 2025: los gigantes “se comen” el futuro de la Inteligencia Artificial

El anuncio de que Manus pasa a integrarse en Meta se lee, a simple vista, como una operación más dentro del frenesí de la Inteligencia Artificial. Pero, mirado con perspectiva, encaja en un patrón cada vez más claro: los grandes jugadores no están comprando “solo” tecnología, están comprando posición. Es decir: talento, propiedad intelectual, acceso a datos, canal de distribución y, sobre todo, capacidad de marcar el estándar de facto en la próxima capa de software. En el caso de Manus, la lectura es directa: Meta refuerza su apuesta por los agentes de propósito general (capaces de ejecutar tareas complejas de principio a fin) y se asegura un equipo y una plataforma que, según se ha venido reportando, ya mostraba

QEMU 10.2 refuerza la virtualización moderna: más rendimiento con io_uring, “live update” y un mensaje claro sobre seguridad

QEMU, uno de los pilares silenciosos del ecosistema de virtualización y emulación de código abierto, ha cerrado 2025 con una actualización de calado. La versión 10.2.0, anunciada oficialmente el 24 de diciembre (con el tarball publicado en la página de descargas el 23 de diciembre), llega con un ritmo de desarrollo que vuelve a poner en perspectiva el tamaño del proyecto: más de 2.300 commits firmados por 188 autores para un lanzamiento que impacta desde laboratorios de arquitectura hasta plataformas de nube privada y entornos enterprise. En un mercado donde gran parte de la conversación gira alrededor de hipervisores “de marca” o suites completas, QEMU sigue jugando otro partido: el del motor que hace posible que muchas capas superiores —gestores,

×