Etiqueta: cloud encriptado

Telecomunicaciones prorroga hasta 2026 el uso experimental de 2.400–2.410 MHz para radioaficionados en enlace con el satélite QO-100

La Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales (SETID) ha renovado la autorización temporal y experimental que permite a los radioaficionados españoles emitir en el tramo 2.400 a 2.410 MHz, una ventana muy concreta dentro de la banda de 2,4 GHz. La prórroga extiende la validez hasta el 26 de diciembre de 2026, dando continuidad a un permiso que se viene renovando de forma recurrente desde marzo de 2009 y que la Unión de Radioaficionados Españoles (URE) había solicitado mantener un año más. La decisión, lejos de ser un simple trámite administrativo, tiene un valor práctico para una comunidad que lleva años usando esta porción de espectro como campo de pruebas real para comunicaciones en microondas, especialmente en satélite.

NVIDIA redibuja la inferencia con Rubin CPX: menos HBM, más economía de contexto

En los últimos días se ha viralizado un argumento contundente: que NVIDIA “ha admitido” que su arquitectura está “rota” porque ha presentado un chip para Inteligencia Artificial que prescinde de HBM y recurre a memoria GDDR. La frase suena a titular perfecto para redes sociales, pero la realidad es más interesante —y, sobre todo, más matizada—: NVIDIA está reaccionando a un cambio de fondo en cómo se consume la Inteligencia Artificial en producción, donde la batalla ya no es solo entrenar modelos, sino servirlos de forma rentable cuando el contexto se dispara a cientos de miles o millones de tokens. La pieza que explica este giro es Rubin CPX, un acelerador diseñado específicamente para una parte concreta de la inferencia:

Meta compra Manus y confirma la tendencia de 2025: los gigantes “se comen” el futuro de la Inteligencia Artificial

El anuncio de que Manus pasa a integrarse en Meta se lee, a simple vista, como una operación más dentro del frenesí de la Inteligencia Artificial. Pero, mirado con perspectiva, encaja en un patrón cada vez más claro: los grandes jugadores no están comprando “solo” tecnología, están comprando posición. Es decir: talento, propiedad intelectual, acceso a datos, canal de distribución y, sobre todo, capacidad de marcar el estándar de facto en la próxima capa de software. En el caso de Manus, la lectura es directa: Meta refuerza su apuesta por los agentes de propósito general (capaces de ejecutar tareas complejas de principio a fin) y se asegura un equipo y una plataforma que, según se ha venido reportando, ya mostraba

QEMU 10.2 refuerza la virtualización moderna: más rendimiento con io_uring, “live update” y un mensaje claro sobre seguridad

QEMU, uno de los pilares silenciosos del ecosistema de virtualización y emulación de código abierto, ha cerrado 2025 con una actualización de calado. La versión 10.2.0, anunciada oficialmente el 24 de diciembre (con el tarball publicado en la página de descargas el 23 de diciembre), llega con un ritmo de desarrollo que vuelve a poner en perspectiva el tamaño del proyecto: más de 2.300 commits firmados por 188 autores para un lanzamiento que impacta desde laboratorios de arquitectura hasta plataformas de nube privada y entornos enterprise. En un mercado donde gran parte de la conversación gira alrededor de hipervisores “de marca” o suites completas, QEMU sigue jugando otro partido: el del motor que hace posible que muchas capas superiores —gestores,

SoftBank apalanca Arm para financiar su apuesta por OpenAI: la ingeniería financiera detrás del “momento IA”

SoftBank lleva años acostumbrando al mercado a movimientos que mezclan visión tecnológica, grandes titulares y una tolerancia al riesgo difícil de encontrar en una corporación cotizada. Pero lo más llamativo de su última gran ofensiva no es solo el tamaño de la apuesta por la Inteligencia Artificial, sino el “cómo” se está financiando: con Arm como garantía. El 11 de noviembre de 2025, en la presentación a inversores de SoftBank, apareció una diapositiva que explica mucho de lo que está ocurriendo: la compañía había ampliado una línea de préstamo con garantía (margin loan) respaldada por acciones de Arm hasta 20.000 millones de dólares, con 8.500 millones ya dispuestos y 11.500 millones disponibles, en una operación en la que participaron 33

Proxmox y Ansible: cuando la virtualización deja de depender del “clic” y empieza a funcionar como código

La administración de infraestructuras virtualizadas está viviendo un cambio silencioso, pero profundo: cada vez menos tareas se ejecutan “a mano” y cada vez más se convierten en procesos repetibles, auditables y fáciles de replicar. En el ecosistema de Proxmox Virtual Environment (Proxmox VE), esa tendencia se nota especialmente en operaciones que aparecen una y otra vez en entornos reales: instalación de hosts, despliegue inicial, creación de clústeres, configuración de red y almacenamiento, y estandarización de ajustes en nodos que han crecido con el tiempo. Para muchos administradores, la pregunta ya no es si automatizar, sino cuánto automatizar y con qué herramientas. En ese contexto, Ansible aparece como uno de los aliados más directos. La razón no es solo su popularidad,

Telecomunicaciones prorroga hasta 2026 el uso experimental de 2.400–2.410 MHz para radioaficionados en enlace con el satélite QO-100

La Secretaría de Estado de Telecomunicaciones e Infraestructuras Digitales (SETID) ha renovado la autorización temporal y experimental que permite a los radioaficionados españoles emitir en el tramo 2.400 a 2.410 MHz, una ventana muy concreta dentro de la banda de 2,4 GHz. La prórroga extiende la validez hasta el 26 de diciembre de 2026, dando continuidad a un permiso que se viene renovando de forma recurrente desde marzo de 2009 y que la Unión de Radioaficionados Españoles (URE) había solicitado mantener un año más. La decisión, lejos de ser un simple trámite administrativo, tiene un valor práctico para una comunidad que lleva años usando esta porción de espectro como campo de pruebas real para comunicaciones en microondas, especialmente en satélite.

NVIDIA redibuja la inferencia con Rubin CPX: menos HBM, más economía de contexto

En los últimos días se ha viralizado un argumento contundente: que NVIDIA “ha admitido” que su arquitectura está “rota” porque ha presentado un chip para Inteligencia Artificial que prescinde de HBM y recurre a memoria GDDR. La frase suena a titular perfecto para redes sociales, pero la realidad es más interesante —y, sobre todo, más matizada—: NVIDIA está reaccionando a un cambio de fondo en cómo se consume la Inteligencia Artificial en producción, donde la batalla ya no es solo entrenar modelos, sino servirlos de forma rentable cuando el contexto se dispara a cientos de miles o millones de tokens. La pieza que explica este giro es Rubin CPX, un acelerador diseñado específicamente para una parte concreta de la inferencia:

Meta compra Manus y confirma la tendencia de 2025: los gigantes “se comen” el futuro de la Inteligencia Artificial

El anuncio de que Manus pasa a integrarse en Meta se lee, a simple vista, como una operación más dentro del frenesí de la Inteligencia Artificial. Pero, mirado con perspectiva, encaja en un patrón cada vez más claro: los grandes jugadores no están comprando “solo” tecnología, están comprando posición. Es decir: talento, propiedad intelectual, acceso a datos, canal de distribución y, sobre todo, capacidad de marcar el estándar de facto en la próxima capa de software. En el caso de Manus, la lectura es directa: Meta refuerza su apuesta por los agentes de propósito general (capaces de ejecutar tareas complejas de principio a fin) y se asegura un equipo y una plataforma que, según se ha venido reportando, ya mostraba

QEMU 10.2 refuerza la virtualización moderna: más rendimiento con io_uring, “live update” y un mensaje claro sobre seguridad

QEMU, uno de los pilares silenciosos del ecosistema de virtualización y emulación de código abierto, ha cerrado 2025 con una actualización de calado. La versión 10.2.0, anunciada oficialmente el 24 de diciembre (con el tarball publicado en la página de descargas el 23 de diciembre), llega con un ritmo de desarrollo que vuelve a poner en perspectiva el tamaño del proyecto: más de 2.300 commits firmados por 188 autores para un lanzamiento que impacta desde laboratorios de arquitectura hasta plataformas de nube privada y entornos enterprise. En un mercado donde gran parte de la conversación gira alrededor de hipervisores “de marca” o suites completas, QEMU sigue jugando otro partido: el del motor que hace posible que muchas capas superiores —gestores,

SoftBank apalanca Arm para financiar su apuesta por OpenAI: la ingeniería financiera detrás del “momento IA”

SoftBank lleva años acostumbrando al mercado a movimientos que mezclan visión tecnológica, grandes titulares y una tolerancia al riesgo difícil de encontrar en una corporación cotizada. Pero lo más llamativo de su última gran ofensiva no es solo el tamaño de la apuesta por la Inteligencia Artificial, sino el “cómo” se está financiando: con Arm como garantía. El 11 de noviembre de 2025, en la presentación a inversores de SoftBank, apareció una diapositiva que explica mucho de lo que está ocurriendo: la compañía había ampliado una línea de préstamo con garantía (margin loan) respaldada por acciones de Arm hasta 20.000 millones de dólares, con 8.500 millones ya dispuestos y 11.500 millones disponibles, en una operación en la que participaron 33

Proxmox y Ansible: cuando la virtualización deja de depender del “clic” y empieza a funcionar como código

La administración de infraestructuras virtualizadas está viviendo un cambio silencioso, pero profundo: cada vez menos tareas se ejecutan “a mano” y cada vez más se convierten en procesos repetibles, auditables y fáciles de replicar. En el ecosistema de Proxmox Virtual Environment (Proxmox VE), esa tendencia se nota especialmente en operaciones que aparecen una y otra vez en entornos reales: instalación de hosts, despliegue inicial, creación de clústeres, configuración de red y almacenamiento, y estandarización de ajustes en nodos que han crecido con el tiempo. Para muchos administradores, la pregunta ya no es si automatizar, sino cuánto automatizar y con qué herramientas. En ese contexto, Ansible aparece como uno de los aliados más directos. La razón no es solo su popularidad,

×