Etiqueta: telefonía móvil

Samsung acelera con HBM4E para GPU de IA: objetivo 3,25 TB/s en 2027 y un golpe de timón para recuperar el liderazgo

La carrera por la memoria de alto ancho de banda (HBM) entra en una nueva fase. Samsung Electronics ha puesto fecha y cifra a su próxima jugada: HBM4E con un objetivo de 3,25 TB/s y producción en masa en 2027. La compañía lo detalló en el OCP Global Summit 2025 de San José, fijando una velocidad por pin de al menos 13 Gbps y 2.048 pines de E/S para alcanzar ese caudal, 2,5 veces por encima de la HBM3E vigente. El anuncio llega tras un año en el que SK hynix tomó la delantera con HBM3E y se postuló como la primera en llevar HBM4 a volumen, mientras Micron se posicionaba con muestras de 11 Gbps para su “cliente principal”

Memoria y almacenamiento, al límite: la ola de IA vacía el “granero” de DRAM, NAND, SSD y HDD y dispara los precios

La industria de la memoria vive una situación inédita: DRAM, NAND Flash, SSD y discos duros se han quedado simultáneamente en mínimos. Lo que durante meses se temió como un ciclo alcista sostenido ha desembocado en escasez generalizada que ya se nota en contratos y precios de contado, y que amenaza con trasladarse a lineales y presupuestos de hogares y pymes en las próximas semanas. La confirmación más contundente llega desde Adata, referente mundial en módulos de memoria. Su presidente, Simon Chen, resumió el momento con una imagen gráfica: el “granero” de los fabricantes está prácticamente vacío y los grandes proveedores de nube (CSP) —OpenAI, AWS, Google, Microsoft— han pasado a ser los competidores reales de los ensambladores y distribuidores

Intel anuncia «Crescent Island»: una nueva GPU para la era de la inferencia de IA con 160 GB de LPDDR5X y microarquitectura Xe3P

Intel ha puesto una nueva pieza sobre el tablero de la Inteligencia Artificial en centros de datos. En el OCP Global Summit 2025, la compañía anunció Crescent Island, el nombre en clave de su próxima GPU para centros de datos optimizada para inferencia, con un enfoque claro: más capacidad de memoria por vatio, refrigeración por aire en servidores empresariales y una pila de software abierta que facilite el despliegue a gran escala. En palabras del CTO de Intel, Sachin Katti, la IA se mueve de entrenamientos estáticos a inferencia en tiempo real y en todas partes, impulsada por la llamada IA agéntica. Y si el presente es inferir —no solo entrenar—, la infraestructura debe cambiar de marcha. Lejos del brillo

Tres de cada cuatro proyectos de IA agéntica suponen un riesgo grave de seguridad

Un reciente informe de Palo Alto Networks, empresa líder en ciberseguridad, advierte que el 75% de los proyectos de inteligencia artificial agéntica en desarrollo en Europa suponen un riesgo significativo para la seguridad de las organizaciones. El problema no radica en la tecnología en sí, sino en la falta de gobernanza, control y supervisión adecuados. El estudio, basado en más de 3.000 entrevistas con altos directivos (C-suite) de compañías europeas, evidencia que muchas iniciativas de IA se están implementando sin una estrategia clara, sin objetivos definidos y sin criterios de seguridad establecidos, lo que refleja una escasa implicación de los consejos de administración. Según la compañía, si no se toman medidas urgentes desde el liderazgo empresarial, la innovación actual podría

NetApp presenta AFX y AI Data Engine: su plataforma de datos “lista para IA” con escalado por nodos e integración nativa con NVIDIA y Azure

NetApp anunció un conjunto de productos que refuerzan su plataforma de datos empresarial para inteligencia artificial, con el foco puesto en pasar de pilotos a aplicaciones agenticas en producción. La novedad llega en dos frentes: NetApp AFX, un sistema all-flash con arquitectura desagregada basado en ONTAP, y NetApp AI Data Engine (AIDE), un servicio unificado que conecta, gobierna y acelera datos para IA sobre un único plano de control. Ambos se orientan a acelerar RAG e inferencia en entornos híbridos y multicloud, y podrán contratarse de forma directa o mediante suscripción Keystone STaaS. AFX: almacenamiento all-flash desagregado para “fábricas de IA” NetApp AFX separa rendimiento y capacidad para permitir que cada uno escale de forma independiente. El sistema, sustentado en

Red Hat AI 3 trae la inferencia distribuida a producción: una plataforma abierta para agentes, Kubernetes y cualquier acelerador

Red Hat ha anunciado Red Hat AI 3, una evolución mayor de su plataforma empresarial de inteligencia artificial que integra Red Hat AI Inference Server, RHEL AI y OpenShift AI para resolver el gran cuello de botella de 2025: operativizar la inferencia a escala (la fase del “hacer”) y pasar de pruebas de concepto a producción sin rehacer la infraestructura. La propuesta pivota sobre tres ideas: inferencia distribuida nativa en Kubernetes (llm-d), experiencia unificada de plataforma (MaaS interno, AI Hub, Gen AI Studio) y cimientos para IA agéntica con APIs y estándares abiertos. El movimiento llega cuando el mercado gira del entrenamiento a la inferencia masiva en tiempo real y a los agentes; y cuando los CIOs buscan recortar latencia,

Samsung acelera con HBM4E para GPU de IA: objetivo 3,25 TB/s en 2027 y un golpe de timón para recuperar el liderazgo

La carrera por la memoria de alto ancho de banda (HBM) entra en una nueva fase. Samsung Electronics ha puesto fecha y cifra a su próxima jugada: HBM4E con un objetivo de 3,25 TB/s y producción en masa en 2027. La compañía lo detalló en el OCP Global Summit 2025 de San José, fijando una velocidad por pin de al menos 13 Gbps y 2.048 pines de E/S para alcanzar ese caudal, 2,5 veces por encima de la HBM3E vigente. El anuncio llega tras un año en el que SK hynix tomó la delantera con HBM3E y se postuló como la primera en llevar HBM4 a volumen, mientras Micron se posicionaba con muestras de 11 Gbps para su “cliente principal”

Memoria y almacenamiento, al límite: la ola de IA vacía el “granero” de DRAM, NAND, SSD y HDD y dispara los precios

La industria de la memoria vive una situación inédita: DRAM, NAND Flash, SSD y discos duros se han quedado simultáneamente en mínimos. Lo que durante meses se temió como un ciclo alcista sostenido ha desembocado en escasez generalizada que ya se nota en contratos y precios de contado, y que amenaza con trasladarse a lineales y presupuestos de hogares y pymes en las próximas semanas. La confirmación más contundente llega desde Adata, referente mundial en módulos de memoria. Su presidente, Simon Chen, resumió el momento con una imagen gráfica: el “granero” de los fabricantes está prácticamente vacío y los grandes proveedores de nube (CSP) —OpenAI, AWS, Google, Microsoft— han pasado a ser los competidores reales de los ensambladores y distribuidores

Intel anuncia «Crescent Island»: una nueva GPU para la era de la inferencia de IA con 160 GB de LPDDR5X y microarquitectura Xe3P

Intel ha puesto una nueva pieza sobre el tablero de la Inteligencia Artificial en centros de datos. En el OCP Global Summit 2025, la compañía anunció Crescent Island, el nombre en clave de su próxima GPU para centros de datos optimizada para inferencia, con un enfoque claro: más capacidad de memoria por vatio, refrigeración por aire en servidores empresariales y una pila de software abierta que facilite el despliegue a gran escala. En palabras del CTO de Intel, Sachin Katti, la IA se mueve de entrenamientos estáticos a inferencia en tiempo real y en todas partes, impulsada por la llamada IA agéntica. Y si el presente es inferir —no solo entrenar—, la infraestructura debe cambiar de marcha. Lejos del brillo

Tres de cada cuatro proyectos de IA agéntica suponen un riesgo grave de seguridad

Un reciente informe de Palo Alto Networks, empresa líder en ciberseguridad, advierte que el 75% de los proyectos de inteligencia artificial agéntica en desarrollo en Europa suponen un riesgo significativo para la seguridad de las organizaciones. El problema no radica en la tecnología en sí, sino en la falta de gobernanza, control y supervisión adecuados. El estudio, basado en más de 3.000 entrevistas con altos directivos (C-suite) de compañías europeas, evidencia que muchas iniciativas de IA se están implementando sin una estrategia clara, sin objetivos definidos y sin criterios de seguridad establecidos, lo que refleja una escasa implicación de los consejos de administración. Según la compañía, si no se toman medidas urgentes desde el liderazgo empresarial, la innovación actual podría

NetApp presenta AFX y AI Data Engine: su plataforma de datos “lista para IA” con escalado por nodos e integración nativa con NVIDIA y Azure

NetApp anunció un conjunto de productos que refuerzan su plataforma de datos empresarial para inteligencia artificial, con el foco puesto en pasar de pilotos a aplicaciones agenticas en producción. La novedad llega en dos frentes: NetApp AFX, un sistema all-flash con arquitectura desagregada basado en ONTAP, y NetApp AI Data Engine (AIDE), un servicio unificado que conecta, gobierna y acelera datos para IA sobre un único plano de control. Ambos se orientan a acelerar RAG e inferencia en entornos híbridos y multicloud, y podrán contratarse de forma directa o mediante suscripción Keystone STaaS. AFX: almacenamiento all-flash desagregado para “fábricas de IA” NetApp AFX separa rendimiento y capacidad para permitir que cada uno escale de forma independiente. El sistema, sustentado en

Red Hat AI 3 trae la inferencia distribuida a producción: una plataforma abierta para agentes, Kubernetes y cualquier acelerador

Red Hat ha anunciado Red Hat AI 3, una evolución mayor de su plataforma empresarial de inteligencia artificial que integra Red Hat AI Inference Server, RHEL AI y OpenShift AI para resolver el gran cuello de botella de 2025: operativizar la inferencia a escala (la fase del “hacer”) y pasar de pruebas de concepto a producción sin rehacer la infraestructura. La propuesta pivota sobre tres ideas: inferencia distribuida nativa en Kubernetes (llm-d), experiencia unificada de plataforma (MaaS interno, AI Hub, Gen AI Studio) y cimientos para IA agéntica con APIs y estándares abiertos. El movimiento llega cuando el mercado gira del entrenamiento a la inferencia masiva en tiempo real y a los agentes; y cuando los CIOs buscan recortar latencia,

×