Etiqueta: desigualdad de género

TSMC acelera en EE. UU.: segunda parcela en Arizona y plan para fabricar chips de 2 nm (N2) y más allá

La taiwanesa TSMC ha dejado claro que su apuesta por Estados Unidos ya no es un ensayo, sino un proyecto a escala industrial. En la presentación de resultados del tercer trimestre, el consejero delegado C. C. Wei confirmó dos movimientos de calado: la adquisición de un segundo terreno junto a sus instalaciones de Arizona para ampliar capacidad y la actualización acelerada de la hoja de ruta tecnológica para traer el nodo N2 (2 nm) y procesos “más allá” al desierto de Sonora. El mensaje, en palabras del propio ejecutivo, responde a una “muy fuerte demanda multianual relacionada con IA” por parte de clientes estadounidenses. “Estamos haciendo progresos tangibles y ejecutando bien nuestro plan. Además, nos estamos preparando para actualizar nuestras

Samsung acelera con HBM4E para GPU de IA: objetivo 3,25 TB/s en 2027 y un golpe de timón para recuperar el liderazgo

La carrera por la memoria de alto ancho de banda (HBM) entra en una nueva fase. Samsung Electronics ha puesto fecha y cifra a su próxima jugada: HBM4E con un objetivo de 3,25 TB/s y producción en masa en 2027. La compañía lo detalló en el OCP Global Summit 2025 de San José, fijando una velocidad por pin de al menos 13 Gbps y 2.048 pines de E/S para alcanzar ese caudal, 2,5 veces por encima de la HBM3E vigente. El anuncio llega tras un año en el que SK hynix tomó la delantera con HBM3E y se postuló como la primera en llevar HBM4 a volumen, mientras Micron se posicionaba con muestras de 11 Gbps para su “cliente principal”

Memoria y almacenamiento, al límite: la ola de IA vacía el “granero” de DRAM, NAND, SSD y HDD y dispara los precios

La industria de la memoria vive una situación inédita: DRAM, NAND Flash, SSD y discos duros se han quedado simultáneamente en mínimos. Lo que durante meses se temió como un ciclo alcista sostenido ha desembocado en escasez generalizada que ya se nota en contratos y precios de contado, y que amenaza con trasladarse a lineales y presupuestos de hogares y pymes en las próximas semanas. La confirmación más contundente llega desde Adata, referente mundial en módulos de memoria. Su presidente, Simon Chen, resumió el momento con una imagen gráfica: el “granero” de los fabricantes está prácticamente vacío y los grandes proveedores de nube (CSP) —OpenAI, AWS, Google, Microsoft— han pasado a ser los competidores reales de los ensambladores y distribuidores

Intel anuncia «Crescent Island»: una nueva GPU para la era de la inferencia de IA con 160 GB de LPDDR5X y microarquitectura Xe3P

Intel ha puesto una nueva pieza sobre el tablero de la Inteligencia Artificial en centros de datos. En el OCP Global Summit 2025, la compañía anunció Crescent Island, el nombre en clave de su próxima GPU para centros de datos optimizada para inferencia, con un enfoque claro: más capacidad de memoria por vatio, refrigeración por aire en servidores empresariales y una pila de software abierta que facilite el despliegue a gran escala. En palabras del CTO de Intel, Sachin Katti, la IA se mueve de entrenamientos estáticos a inferencia en tiempo real y en todas partes, impulsada por la llamada IA agéntica. Y si el presente es inferir —no solo entrenar—, la infraestructura debe cambiar de marcha. Lejos del brillo

Tres de cada cuatro proyectos de IA agéntica suponen un riesgo grave de seguridad

Un reciente informe de Palo Alto Networks, empresa líder en ciberseguridad, advierte que el 75% de los proyectos de inteligencia artificial agéntica en desarrollo en Europa suponen un riesgo significativo para la seguridad de las organizaciones. El problema no radica en la tecnología en sí, sino en la falta de gobernanza, control y supervisión adecuados. El estudio, basado en más de 3.000 entrevistas con altos directivos (C-suite) de compañías europeas, evidencia que muchas iniciativas de IA se están implementando sin una estrategia clara, sin objetivos definidos y sin criterios de seguridad establecidos, lo que refleja una escasa implicación de los consejos de administración. Según la compañía, si no se toman medidas urgentes desde el liderazgo empresarial, la innovación actual podría

NetApp presenta AFX y AI Data Engine: su plataforma de datos “lista para IA” con escalado por nodos e integración nativa con NVIDIA y Azure

NetApp anunció un conjunto de productos que refuerzan su plataforma de datos empresarial para inteligencia artificial, con el foco puesto en pasar de pilotos a aplicaciones agenticas en producción. La novedad llega en dos frentes: NetApp AFX, un sistema all-flash con arquitectura desagregada basado en ONTAP, y NetApp AI Data Engine (AIDE), un servicio unificado que conecta, gobierna y acelera datos para IA sobre un único plano de control. Ambos se orientan a acelerar RAG e inferencia en entornos híbridos y multicloud, y podrán contratarse de forma directa o mediante suscripción Keystone STaaS. AFX: almacenamiento all-flash desagregado para “fábricas de IA” NetApp AFX separa rendimiento y capacidad para permitir que cada uno escale de forma independiente. El sistema, sustentado en

TSMC acelera en EE. UU.: segunda parcela en Arizona y plan para fabricar chips de 2 nm (N2) y más allá

La taiwanesa TSMC ha dejado claro que su apuesta por Estados Unidos ya no es un ensayo, sino un proyecto a escala industrial. En la presentación de resultados del tercer trimestre, el consejero delegado C. C. Wei confirmó dos movimientos de calado: la adquisición de un segundo terreno junto a sus instalaciones de Arizona para ampliar capacidad y la actualización acelerada de la hoja de ruta tecnológica para traer el nodo N2 (2 nm) y procesos “más allá” al desierto de Sonora. El mensaje, en palabras del propio ejecutivo, responde a una “muy fuerte demanda multianual relacionada con IA” por parte de clientes estadounidenses. “Estamos haciendo progresos tangibles y ejecutando bien nuestro plan. Además, nos estamos preparando para actualizar nuestras

Samsung acelera con HBM4E para GPU de IA: objetivo 3,25 TB/s en 2027 y un golpe de timón para recuperar el liderazgo

La carrera por la memoria de alto ancho de banda (HBM) entra en una nueva fase. Samsung Electronics ha puesto fecha y cifra a su próxima jugada: HBM4E con un objetivo de 3,25 TB/s y producción en masa en 2027. La compañía lo detalló en el OCP Global Summit 2025 de San José, fijando una velocidad por pin de al menos 13 Gbps y 2.048 pines de E/S para alcanzar ese caudal, 2,5 veces por encima de la HBM3E vigente. El anuncio llega tras un año en el que SK hynix tomó la delantera con HBM3E y se postuló como la primera en llevar HBM4 a volumen, mientras Micron se posicionaba con muestras de 11 Gbps para su “cliente principal”

Memoria y almacenamiento, al límite: la ola de IA vacía el “granero” de DRAM, NAND, SSD y HDD y dispara los precios

La industria de la memoria vive una situación inédita: DRAM, NAND Flash, SSD y discos duros se han quedado simultáneamente en mínimos. Lo que durante meses se temió como un ciclo alcista sostenido ha desembocado en escasez generalizada que ya se nota en contratos y precios de contado, y que amenaza con trasladarse a lineales y presupuestos de hogares y pymes en las próximas semanas. La confirmación más contundente llega desde Adata, referente mundial en módulos de memoria. Su presidente, Simon Chen, resumió el momento con una imagen gráfica: el “granero” de los fabricantes está prácticamente vacío y los grandes proveedores de nube (CSP) —OpenAI, AWS, Google, Microsoft— han pasado a ser los competidores reales de los ensambladores y distribuidores

Intel anuncia «Crescent Island»: una nueva GPU para la era de la inferencia de IA con 160 GB de LPDDR5X y microarquitectura Xe3P

Intel ha puesto una nueva pieza sobre el tablero de la Inteligencia Artificial en centros de datos. En el OCP Global Summit 2025, la compañía anunció Crescent Island, el nombre en clave de su próxima GPU para centros de datos optimizada para inferencia, con un enfoque claro: más capacidad de memoria por vatio, refrigeración por aire en servidores empresariales y una pila de software abierta que facilite el despliegue a gran escala. En palabras del CTO de Intel, Sachin Katti, la IA se mueve de entrenamientos estáticos a inferencia en tiempo real y en todas partes, impulsada por la llamada IA agéntica. Y si el presente es inferir —no solo entrenar—, la infraestructura debe cambiar de marcha. Lejos del brillo

Tres de cada cuatro proyectos de IA agéntica suponen un riesgo grave de seguridad

Un reciente informe de Palo Alto Networks, empresa líder en ciberseguridad, advierte que el 75% de los proyectos de inteligencia artificial agéntica en desarrollo en Europa suponen un riesgo significativo para la seguridad de las organizaciones. El problema no radica en la tecnología en sí, sino en la falta de gobernanza, control y supervisión adecuados. El estudio, basado en más de 3.000 entrevistas con altos directivos (C-suite) de compañías europeas, evidencia que muchas iniciativas de IA se están implementando sin una estrategia clara, sin objetivos definidos y sin criterios de seguridad establecidos, lo que refleja una escasa implicación de los consejos de administración. Según la compañía, si no se toman medidas urgentes desde el liderazgo empresarial, la innovación actual podría

NetApp presenta AFX y AI Data Engine: su plataforma de datos “lista para IA” con escalado por nodos e integración nativa con NVIDIA y Azure

NetApp anunció un conjunto de productos que refuerzan su plataforma de datos empresarial para inteligencia artificial, con el foco puesto en pasar de pilotos a aplicaciones agenticas en producción. La novedad llega en dos frentes: NetApp AFX, un sistema all-flash con arquitectura desagregada basado en ONTAP, y NetApp AI Data Engine (AIDE), un servicio unificado que conecta, gobierna y acelera datos para IA sobre un único plano de control. Ambos se orientan a acelerar RAG e inferencia en entornos híbridos y multicloud, y podrán contratarse de forma directa o mediante suscripción Keystone STaaS. AFX: almacenamiento all-flash desagregado para “fábricas de IA” NetApp AFX separa rendimiento y capacidad para permitir que cada uno escale de forma independiente. El sistema, sustentado en

×