Etiqueta: Telespazio

Claude Security entra en la nube empresarial: la seguridad del código también se vuelve agéntica

Anthropic ha abierto la beta pública de Claude Security, una herramienta para clientes de Claude Enterprise que analiza repositorios de código, identifica vulnerabilidades y propone correcciones con Claude Opus 4.7. El anuncio no es solo una nueva función para equipos de desarrollo. Es una señal clara de hacia dónde se mueve la seguridad cloud: del escaneo puntual de código a sistemas capaces de razonar sobre aplicaciones completas, flujos de datos, dependencias y cambios antes de que lleguen a producción. La seguridad del software lleva años intentando acercarse al desarrollador. Primero llegaron los escáneres SAST, después las revisiones de dependencias, el análisis de secretos, las alertas dentro del pull request y las políticas de seguridad en CI/CD. Ahora entra una capa

Una IA diseña una CPU RISC-V completa en 12 horas, pero aún no es un chip real

La inteligencia artificial acaba de dar un nuevo paso en uno de los terrenos más complejos de la ingeniería: el diseño de semiconductores. La startup Verkor.io asegura que su sistema Design Conductor ha sido capaz de crear de forma autónoma un núcleo de CPU RISC-V completo, llamado VerCore, a partir de un documento de requisitos de solo 219 palabras y en un plazo de 12 horas. La afirmación es llamativa, pero conviene leerla con precisión. No se trata de que un modelo de lenguaje haya fabricado físicamente un procesador ni de que haya diseñado una CPU comparable a los chips modernos de Intel, AMD, Apple o Arm. Lo que Verkor.io sostiene es que su agente de IA ha recorrido el

QNAP lleva los LLM privados al borde con su nuevo QAI-h1290FX

QNAP ha presentado el QAI-h1290FX, un servidor de almacenamiento y cómputo pensado para ejecutar cargas de Inteligencia Artificial dentro de la propia empresa, sin depender necesariamente de servicios cloud externos. La propuesta apunta a un mercado cada vez más activo: organizaciones que quieren usar modelos de lenguaje grandes, búsquedas RAG y aplicaciones de IA generativa, pero manteniendo sus datos bajo control local. El equipo combina almacenamiento NVMe all-flash, procesadores AMD EPYC de clase servidor, red de alta velocidad y opciones de aceleración mediante GPU NVIDIA RTX. No es un NAS convencional con algunas funciones de IA añadidas, sino una plataforma que intenta unir almacenamiento, virtualización, contenedores y GPU en una misma máquina para acelerar despliegues locales de LLM privados. QNAP

Europa acelera sus centros de datos: marzo deja una ola de proyectos de IA

Marzo de 2026 ha dejado una de las señales más claras de hacia dónde se mueve la infraestructura digital europea. Los anuncios de nuevos centros de datos, ampliaciones, adquisiciones y campus orientados a inteligencia artificial se han multiplicado en España, Reino Unido, países nórdicos, Alemania, Francia, Italia, Portugal, Polonia y Europa del Este. Ya no se trata solo de construir más salas técnicas para alojar servidores. La nueva carrera gira en torno a energía, suelo, conectividad, refrigeración, latencia y capacidad para soportar cargas de IA cada vez más intensivas. España aparece como uno de los focos más activos del mes, especialmente por la inversión de 33.700 millones de euros anunciada por Amazon Web Services para expandir su infraestructura cloud y

Intel y SoftBank enseñan HB3DM, una memoria 3D para competir con HBM

Intel y SoftBank, a través de SAIMEMORY, han dejado ver nuevos detalles de HB3DM, una memoria 3D basada en Z-Angle Memory (ZAM) que aspira a convertirse en una alternativa a la HBM tradicional para cargas de inteligencia artificial y computación de alto rendimiento. No es una memoria comercial lista para sustituir mañana a HBM4 en aceleradores de NVIDIA, AMD o Intel, pero sí una propuesta técnica interesante en un momento en el que el ancho de banda de memoria se ha convertido en uno de los grandes límites de la infraestructura de IA. La información procede de los datos asociados a una ponencia prevista para el VLSI Symposium 2026, que se celebrará en junio en Honolulu. Según los detalles difundidos,

Montage dispara su beneficio por el tirón de DDR5 y los servidores de IA

Montage Technology ha cerrado el primer trimestre de 2026 con un fuerte crecimiento de beneficios, impulsado por la demanda de servidores de inteligencia artificial y por la adopción acelerada de DDR5 en centros de datos. La compañía china, especializada en chips de interfaz de memoria e interconexión para servidores, registró unos ingresos de 1.461 millones de yuanes, un 19,5 % más interanual, y un beneficio neto atribuible de 847 millones de yuanes, un 61,3 % más que un año antes. El resultado confirma cómo la inversión global en infraestructura de IA se está trasladando a capas menos visibles de la cadena de suministro. No solo crecen los fabricantes de GPUs, HBM o servidores completos. También ganan peso empresas como Montage,

Claude Security entra en la nube empresarial: la seguridad del código también se vuelve agéntica

Anthropic ha abierto la beta pública de Claude Security, una herramienta para clientes de Claude Enterprise que analiza repositorios de código, identifica vulnerabilidades y propone correcciones con Claude Opus 4.7. El anuncio no es solo una nueva función para equipos de desarrollo. Es una señal clara de hacia dónde se mueve la seguridad cloud: del escaneo puntual de código a sistemas capaces de razonar sobre aplicaciones completas, flujos de datos, dependencias y cambios antes de que lleguen a producción. La seguridad del software lleva años intentando acercarse al desarrollador. Primero llegaron los escáneres SAST, después las revisiones de dependencias, el análisis de secretos, las alertas dentro del pull request y las políticas de seguridad en CI/CD. Ahora entra una capa

Una IA diseña una CPU RISC-V completa en 12 horas, pero aún no es un chip real

La inteligencia artificial acaba de dar un nuevo paso en uno de los terrenos más complejos de la ingeniería: el diseño de semiconductores. La startup Verkor.io asegura que su sistema Design Conductor ha sido capaz de crear de forma autónoma un núcleo de CPU RISC-V completo, llamado VerCore, a partir de un documento de requisitos de solo 219 palabras y en un plazo de 12 horas. La afirmación es llamativa, pero conviene leerla con precisión. No se trata de que un modelo de lenguaje haya fabricado físicamente un procesador ni de que haya diseñado una CPU comparable a los chips modernos de Intel, AMD, Apple o Arm. Lo que Verkor.io sostiene es que su agente de IA ha recorrido el

QNAP lleva los LLM privados al borde con su nuevo QAI-h1290FX

QNAP ha presentado el QAI-h1290FX, un servidor de almacenamiento y cómputo pensado para ejecutar cargas de Inteligencia Artificial dentro de la propia empresa, sin depender necesariamente de servicios cloud externos. La propuesta apunta a un mercado cada vez más activo: organizaciones que quieren usar modelos de lenguaje grandes, búsquedas RAG y aplicaciones de IA generativa, pero manteniendo sus datos bajo control local. El equipo combina almacenamiento NVMe all-flash, procesadores AMD EPYC de clase servidor, red de alta velocidad y opciones de aceleración mediante GPU NVIDIA RTX. No es un NAS convencional con algunas funciones de IA añadidas, sino una plataforma que intenta unir almacenamiento, virtualización, contenedores y GPU en una misma máquina para acelerar despliegues locales de LLM privados. QNAP

Europa acelera sus centros de datos: marzo deja una ola de proyectos de IA

Marzo de 2026 ha dejado una de las señales más claras de hacia dónde se mueve la infraestructura digital europea. Los anuncios de nuevos centros de datos, ampliaciones, adquisiciones y campus orientados a inteligencia artificial se han multiplicado en España, Reino Unido, países nórdicos, Alemania, Francia, Italia, Portugal, Polonia y Europa del Este. Ya no se trata solo de construir más salas técnicas para alojar servidores. La nueva carrera gira en torno a energía, suelo, conectividad, refrigeración, latencia y capacidad para soportar cargas de IA cada vez más intensivas. España aparece como uno de los focos más activos del mes, especialmente por la inversión de 33.700 millones de euros anunciada por Amazon Web Services para expandir su infraestructura cloud y

Intel y SoftBank enseñan HB3DM, una memoria 3D para competir con HBM

Intel y SoftBank, a través de SAIMEMORY, han dejado ver nuevos detalles de HB3DM, una memoria 3D basada en Z-Angle Memory (ZAM) que aspira a convertirse en una alternativa a la HBM tradicional para cargas de inteligencia artificial y computación de alto rendimiento. No es una memoria comercial lista para sustituir mañana a HBM4 en aceleradores de NVIDIA, AMD o Intel, pero sí una propuesta técnica interesante en un momento en el que el ancho de banda de memoria se ha convertido en uno de los grandes límites de la infraestructura de IA. La información procede de los datos asociados a una ponencia prevista para el VLSI Symposium 2026, que se celebrará en junio en Honolulu. Según los detalles difundidos,

Montage dispara su beneficio por el tirón de DDR5 y los servidores de IA

Montage Technology ha cerrado el primer trimestre de 2026 con un fuerte crecimiento de beneficios, impulsado por la demanda de servidores de inteligencia artificial y por la adopción acelerada de DDR5 en centros de datos. La compañía china, especializada en chips de interfaz de memoria e interconexión para servidores, registró unos ingresos de 1.461 millones de yuanes, un 19,5 % más interanual, y un beneficio neto atribuible de 847 millones de yuanes, un 61,3 % más que un año antes. El resultado confirma cómo la inversión global en infraestructura de IA se está trasladando a capas menos visibles de la cadena de suministro. No solo crecen los fabricantes de GPUs, HBM o servidores completos. También ganan peso empresas como Montage,

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×