Etiqueta: cloud elástico

NetApp se alía con AWS para llevar los datos empresariales directamente a los servicios de IA en la nube

NetApp ha anunciado una nueva integración con Amazon Web Services (AWS) que apunta directamente al gran reto de muchas empresas: cómo aprovechar sus enormes volúmenes de datos ya existentes para proyectos de inteligencia artificial, analítica avanzada y machine learning sin tener que duplicarlos ni rediseñar toda su infraestructura. La compañía, que se define como proveedor de “infraestructura de datos inteligente”, incorpora ahora Amazon S3 Access Points para Amazon FSx for NetApp ONTAP, una capacidad que permite exponer los datos almacenados en ONTAP como si fueran buckets S3, listos para ser consumidos por los servicios nativos de AWS orientados a IA, analítica y cómputo serverless. Datos de ONTAP, acceso vía S3 y sin moverlos Hasta ahora, muchas organizaciones que querían usar

Samsung rectifica: recorta la HBM y apuesta otra vez por DDR5, LPDDR5 y GDDR7

Samsung ha decidido pisar el freno en la carrera por la memoria HBM3E para Inteligencia Artificial y volver a mirar hacia un territorio que conoce muy bien: la DRAM de propósito general para PC, portátiles y servidores. Después de meses trasladando líneas de producción a HBM para competir de tú a tú con SK Hynix, la compañía surcoreana ha iniciado un giro estratégico que pasa por destinar más capacidad a DDR5, LPDDR5 y GDDR7, justo en pleno ciclo alcista de precios de la memoria. El movimiento ha sorprendido al sector. Sobre el papel, la HBM3E es el producto estrella del momento: es la memoria que alimenta las GPU para IA de NVIDIA, AMD y otros actores, y la demanda sigue

Anthropic acelera su salida a bolsa y calienta la carrera con OpenAI en Wall Street

Anthropic, la compañía de inteligencia artificial creadora de Claude, ha dado un paso decisivo para saltar a los mercados públicos. La empresa ha contratado al prestigioso despacho Wilson Sonsini Goodrich & Rosati (WSGR), uno de los bufetes de referencia en Silicon Valley para salidas a bolsa tecnológicas, para preparar una potencial OPV (oferta pública de venta) en Estados Unidos. Según fuentes cercanas citadas por la prensa económica internacional, Anthropic también mantiene conversaciones preliminares con varios bancos de inversión para analizar el mejor momento y la estructura de una posible colocación. De momento, el consejo de administración no ha tomado una decisión definitiva ni existe un calendario cerrado, pero el movimiento confirma que la compañía se está posicionando para cotizar en

Lai Ching-te recuerda los antiguos vetos a fábricas en China mientras EE. UU. se replantea las ventas de Nvidia a Pekín

El presidente de Taiwán, Lai Ching-te, ha aprovechado una entrevista con el periodista Andrew Ross Sorkin en el DealBook Summit de The New York Times para lanzar un mensaje muy calculado al corazón de la guerra de los chips: los semiconductores son un recurso global que exige cooperación… pero también límites claros frente a China cuando hay riesgos estratégicos. Sus palabras llegan justo cuando Washington debate si flexibilizar las restricciones que impiden a Nvidia vender sus chips de inteligencia artificial más avanzados al mercado chino, un punto de fricción clave en la competencia tecnológica entre las dos grandes potencias. Semiconductores como “ecosistema global” En la entrevista, Lai evitó pronunciarse de forma directa sobre la política interna estadounidense —incluida la decisión

China endurece el control sobre las baterías externas y obliga a la industria a repensar sus power banks

China se prepara para dar un giro de tuerca a la seguridad de las baterías externas utilizadas en vuelos. Las autoridades del país asiático consideran que la certificación 3C —el sello obligatorio de conformidad para productos electrónicos— ya no basta para garantizar que una power bank es segura a bordo de un avión. El objetivo: minimizar al máximo el riesgo de incendios, explosiones, grietas y fugas en pleno vuelo, incluso a costa de encarecer el producto y poner bajo presión a la industria. La iniciativa llega en un contexto de creciente preocupación mundial por los incidentes relacionados con baterías de litio. Solo en los últimos años, varios vuelos han tenido que realizar aterrizajes de emergencia por incendios en maleteros superiores

NVIDIA acelera la era de los modelos Mixture of Experts con GB200 NVL72 y un salto de rendimiento de 10x

La nueva generación de modelos de inteligencia artificial más avanzados ya tiene una arquitectura clara favorita: Mixture of Experts (MoE). Y NVIDIA quiere ser el motor sobre el que se ejecuten. Su sistema GB200 NVL72, un diseño a escala de rack pensado para IA generativa masiva, está logrando hasta 10 veces más rendimiento en inferencia para modelos MoE punteros como Kimi K2 Thinking, DeepSeek-R1 o Mistral Large 3 frente a la generación anterior H200, cambiando la economía de la IA en los grandes centros de datos. Qué aporta realmente la arquitectura Mixture of Experts Durante años, la industria siguió una lógica sencilla: para tener modelos más inteligentes, había que hacerlos más grandes. Modelos densos con cientos de miles de millones

NetApp se alía con AWS para llevar los datos empresariales directamente a los servicios de IA en la nube

NetApp ha anunciado una nueva integración con Amazon Web Services (AWS) que apunta directamente al gran reto de muchas empresas: cómo aprovechar sus enormes volúmenes de datos ya existentes para proyectos de inteligencia artificial, analítica avanzada y machine learning sin tener que duplicarlos ni rediseñar toda su infraestructura. La compañía, que se define como proveedor de “infraestructura de datos inteligente”, incorpora ahora Amazon S3 Access Points para Amazon FSx for NetApp ONTAP, una capacidad que permite exponer los datos almacenados en ONTAP como si fueran buckets S3, listos para ser consumidos por los servicios nativos de AWS orientados a IA, analítica y cómputo serverless. Datos de ONTAP, acceso vía S3 y sin moverlos Hasta ahora, muchas organizaciones que querían usar

Samsung rectifica: recorta la HBM y apuesta otra vez por DDR5, LPDDR5 y GDDR7

Samsung ha decidido pisar el freno en la carrera por la memoria HBM3E para Inteligencia Artificial y volver a mirar hacia un territorio que conoce muy bien: la DRAM de propósito general para PC, portátiles y servidores. Después de meses trasladando líneas de producción a HBM para competir de tú a tú con SK Hynix, la compañía surcoreana ha iniciado un giro estratégico que pasa por destinar más capacidad a DDR5, LPDDR5 y GDDR7, justo en pleno ciclo alcista de precios de la memoria. El movimiento ha sorprendido al sector. Sobre el papel, la HBM3E es el producto estrella del momento: es la memoria que alimenta las GPU para IA de NVIDIA, AMD y otros actores, y la demanda sigue

Anthropic acelera su salida a bolsa y calienta la carrera con OpenAI en Wall Street

Anthropic, la compañía de inteligencia artificial creadora de Claude, ha dado un paso decisivo para saltar a los mercados públicos. La empresa ha contratado al prestigioso despacho Wilson Sonsini Goodrich & Rosati (WSGR), uno de los bufetes de referencia en Silicon Valley para salidas a bolsa tecnológicas, para preparar una potencial OPV (oferta pública de venta) en Estados Unidos. Según fuentes cercanas citadas por la prensa económica internacional, Anthropic también mantiene conversaciones preliminares con varios bancos de inversión para analizar el mejor momento y la estructura de una posible colocación. De momento, el consejo de administración no ha tomado una decisión definitiva ni existe un calendario cerrado, pero el movimiento confirma que la compañía se está posicionando para cotizar en

Lai Ching-te recuerda los antiguos vetos a fábricas en China mientras EE. UU. se replantea las ventas de Nvidia a Pekín

El presidente de Taiwán, Lai Ching-te, ha aprovechado una entrevista con el periodista Andrew Ross Sorkin en el DealBook Summit de The New York Times para lanzar un mensaje muy calculado al corazón de la guerra de los chips: los semiconductores son un recurso global que exige cooperación… pero también límites claros frente a China cuando hay riesgos estratégicos. Sus palabras llegan justo cuando Washington debate si flexibilizar las restricciones que impiden a Nvidia vender sus chips de inteligencia artificial más avanzados al mercado chino, un punto de fricción clave en la competencia tecnológica entre las dos grandes potencias. Semiconductores como “ecosistema global” En la entrevista, Lai evitó pronunciarse de forma directa sobre la política interna estadounidense —incluida la decisión

China endurece el control sobre las baterías externas y obliga a la industria a repensar sus power banks

China se prepara para dar un giro de tuerca a la seguridad de las baterías externas utilizadas en vuelos. Las autoridades del país asiático consideran que la certificación 3C —el sello obligatorio de conformidad para productos electrónicos— ya no basta para garantizar que una power bank es segura a bordo de un avión. El objetivo: minimizar al máximo el riesgo de incendios, explosiones, grietas y fugas en pleno vuelo, incluso a costa de encarecer el producto y poner bajo presión a la industria. La iniciativa llega en un contexto de creciente preocupación mundial por los incidentes relacionados con baterías de litio. Solo en los últimos años, varios vuelos han tenido que realizar aterrizajes de emergencia por incendios en maleteros superiores

NVIDIA acelera la era de los modelos Mixture of Experts con GB200 NVL72 y un salto de rendimiento de 10x

La nueva generación de modelos de inteligencia artificial más avanzados ya tiene una arquitectura clara favorita: Mixture of Experts (MoE). Y NVIDIA quiere ser el motor sobre el que se ejecuten. Su sistema GB200 NVL72, un diseño a escala de rack pensado para IA generativa masiva, está logrando hasta 10 veces más rendimiento en inferencia para modelos MoE punteros como Kimi K2 Thinking, DeepSeek-R1 o Mistral Large 3 frente a la generación anterior H200, cambiando la economía de la IA en los grandes centros de datos. Qué aporta realmente la arquitectura Mixture of Experts Durante años, la industria siguió una lógica sencilla: para tener modelos más inteligentes, había que hacerlos más grandes. Modelos densos con cientos de miles de millones

×