Etiqueta: balizas

IBM y AMD montan para Zyphra un “full-stack” de IA en IBM Cloud con MI300X: primer macrocluster dedicado, NICs y DPUs de Pensando, y expansión en 2026

IBM y AMD han anunciado una colaboración para suministrar a Zyphra —startup de San Francisco centrada en “superinteligencia” open-source— una infraestructura avanzada de entrenamiento de modelos de IA en IBM Cloud basada en GPU AMD Instinct™ MI300X. El acuerdo, multianual, coloca a IBM como proveedor de un gran clúster dedicado con aceleradores de AMD para entrenar modelos fundacionales multimodales (lenguaje, visión y audio). Es, según las empresas, el primer despliegue a gran escala en IBM Cloud que integra la pila completa de AMD para entrenamiento —desde cómputo hasta red— y, de hecho, se apoya también en AMD Pensando™ Pollara 400 AI NICs y AMD Pensando Ortano DPUs. El primer tramo se puso en marcha a inicios de septiembre y se

OpenAI mueve ficha en hardware: 6 GW con AMD y una estrategia “multi-proveedor” que también abraza a NVIDIA y al resto de la cadena de chips

OpenAI ya no solo es sinónimo de modelos y apps; también empieza a serlo de infraestructura. La compañía ha anunciado un acuerdo multianual con AMD para desplegar hasta 6 gigavatios (GW) de capacidad en GPU para IA —con un primer tramo de 1 GW de Instinct™ MI450 fijado para la segunda mitad de 2026— y un warrant por hasta 160 millones de acciones de AMD ligado al cumplimiento de hitos técnicos, comerciales y umbrales de precio de la acción. Más allá del titular, la señal estratégica es nítida: OpenAI se está posicionando con varios proveedores de cómputo a la vez, AMD incluida, NVIDIA por supuesto, y con el resto de actores que hacen posible escalar IA (fundiciones, packaging, memoria HBM,

Snowflake lanza Cortex AI para Servicios Financieros: agentes y apps de IA “enterprise-ready”, datos regulados y un MCP Server para interoperar con todo el ecosistema

Snowflake, la compañía del AI Data Cloud (NYSE: SNOW), ha presentado Cortex AI for Financial Services, un paquete de capacidades y alianzas diseñado para que bancos, gestoras, fintech y aseguradoras unifiquen su ecosistema de datos y desplieguen modelos, apps y agentes de IA encima de esos datos con seguridad y cumplimiento regulatorio. La propuesta llega con dos mensajes nítidos: llevar la IA al lugar donde ya vive el dato —Snowflake— y hacerlo interoperable con agentes y plataformas externas mediante un Model Context Protocol (MCP) Server gestionado, ya en public preview. “El sector financiero siempre ha sido pionero, pero convive con datos fragmentados, cumplimiento robusto y la necesidad de gobernanza férrea”, apunta Baris Gultekin, VP de IA en Snowflake. “Al acercar

Slack abre su plataforma a la “IA con contexto”: nueva API de búsqueda en tiempo real y servidor MCP para que los agentes trabajen con tus conversaciones (sin romper la gobernanza)

Slack, el sistema de mensajería corporativa de Salesforce, quiere convertirse en la capa de trabajo donde vivan —y sean realmente útiles— los agentes de IA. La compañía ha presentado dos piezas técnicas con esa ambición: una API de búsqueda en tiempo real (RTS) y un servidor del Model Context Protocol (MCP). Juntas, prometen algo que hasta ahora resultaba escurridizo: que las aplicaciones de IA accedan, con permisos finos y sin copiar datos, al contexto que ya está en Slack —mensajes, canales, archivos— y lo usen para responder, decidir y actuar dentro del propio flujo de trabajo. El movimiento no es menor. En la economía de los agentes, los datos conversacionales son el oro: reuniones, decisiones, acuerdos, dudas, “cosas por hacer”…

Europa se cae del ‘top 25’ mundial por capitalización: qué dice esto del mapa tecnológico de 2025 y cómo volver al tablero antes de 2030

La foto de mercado de 2025 es contundente: ninguna empresa europea figura ya entre las 25 mayores del mundo por capitalización bursátil. La lista, dominada por EE. UU. y flanqueada por TSMC (Taiwán), Tencent (China) y Saudi Aramco (Arabia Saudí), es algo más que un ranking financiero: es un mapa de poder tecnológico. Habla de quién tiene los chips que todos quieren, quién opera las nubes donde corren los modelos de IA, quién controla los pagos y quién dispone de megavatios firmes para levantar hyperscale y centros de datos de 80 kW/rack. Para un medio de tecnología, la pregunta no es “¿por qué se ha ido Europa?”, sino “qué hay que construir para volver”. Y la respuesta no pasa por

Bare-metal para la era de la IA: cómo alojar racks de 80 kW sin “romper” la red eléctrica (y sin romper tus SLA)

Madrid. 2025. La IA ya no es una demo de laboratorio: es estrategia de negocio. Pero su cara B es una demanda eléctrica y térmica inédita. Los racks GPU de nueva generación consumen 50–80 kW de forma sostenida —y los primeros pilotos superan 100 kW— mientras muchos CPD heredados siguen dimensionados para 5–10 kW/rack. Incluso hiperescalares en polos como Ashburn (N. Virginia), Dublín o Singapur se topan con moratorias o cupos de conexión. En este contexto, bare-metal deja de ser “nicho” y se convierte en pieza central para entrenar e inferir LLMs a gran escala sin colapsar la infraestructura eléctrica ni traicionar los compromisos ESG. “Lo que vemos en 2025 es simple: o te mueves a bare-metal de alta densidad

IBM y AMD montan para Zyphra un “full-stack” de IA en IBM Cloud con MI300X: primer macrocluster dedicado, NICs y DPUs de Pensando, y expansión en 2026

IBM y AMD han anunciado una colaboración para suministrar a Zyphra —startup de San Francisco centrada en “superinteligencia” open-source— una infraestructura avanzada de entrenamiento de modelos de IA en IBM Cloud basada en GPU AMD Instinct™ MI300X. El acuerdo, multianual, coloca a IBM como proveedor de un gran clúster dedicado con aceleradores de AMD para entrenar modelos fundacionales multimodales (lenguaje, visión y audio). Es, según las empresas, el primer despliegue a gran escala en IBM Cloud que integra la pila completa de AMD para entrenamiento —desde cómputo hasta red— y, de hecho, se apoya también en AMD Pensando™ Pollara 400 AI NICs y AMD Pensando Ortano DPUs. El primer tramo se puso en marcha a inicios de septiembre y se

OpenAI mueve ficha en hardware: 6 GW con AMD y una estrategia “multi-proveedor” que también abraza a NVIDIA y al resto de la cadena de chips

OpenAI ya no solo es sinónimo de modelos y apps; también empieza a serlo de infraestructura. La compañía ha anunciado un acuerdo multianual con AMD para desplegar hasta 6 gigavatios (GW) de capacidad en GPU para IA —con un primer tramo de 1 GW de Instinct™ MI450 fijado para la segunda mitad de 2026— y un warrant por hasta 160 millones de acciones de AMD ligado al cumplimiento de hitos técnicos, comerciales y umbrales de precio de la acción. Más allá del titular, la señal estratégica es nítida: OpenAI se está posicionando con varios proveedores de cómputo a la vez, AMD incluida, NVIDIA por supuesto, y con el resto de actores que hacen posible escalar IA (fundiciones, packaging, memoria HBM,

Snowflake lanza Cortex AI para Servicios Financieros: agentes y apps de IA “enterprise-ready”, datos regulados y un MCP Server para interoperar con todo el ecosistema

Snowflake, la compañía del AI Data Cloud (NYSE: SNOW), ha presentado Cortex AI for Financial Services, un paquete de capacidades y alianzas diseñado para que bancos, gestoras, fintech y aseguradoras unifiquen su ecosistema de datos y desplieguen modelos, apps y agentes de IA encima de esos datos con seguridad y cumplimiento regulatorio. La propuesta llega con dos mensajes nítidos: llevar la IA al lugar donde ya vive el dato —Snowflake— y hacerlo interoperable con agentes y plataformas externas mediante un Model Context Protocol (MCP) Server gestionado, ya en public preview. “El sector financiero siempre ha sido pionero, pero convive con datos fragmentados, cumplimiento robusto y la necesidad de gobernanza férrea”, apunta Baris Gultekin, VP de IA en Snowflake. “Al acercar

Slack abre su plataforma a la “IA con contexto”: nueva API de búsqueda en tiempo real y servidor MCP para que los agentes trabajen con tus conversaciones (sin romper la gobernanza)

Slack, el sistema de mensajería corporativa de Salesforce, quiere convertirse en la capa de trabajo donde vivan —y sean realmente útiles— los agentes de IA. La compañía ha presentado dos piezas técnicas con esa ambición: una API de búsqueda en tiempo real (RTS) y un servidor del Model Context Protocol (MCP). Juntas, prometen algo que hasta ahora resultaba escurridizo: que las aplicaciones de IA accedan, con permisos finos y sin copiar datos, al contexto que ya está en Slack —mensajes, canales, archivos— y lo usen para responder, decidir y actuar dentro del propio flujo de trabajo. El movimiento no es menor. En la economía de los agentes, los datos conversacionales son el oro: reuniones, decisiones, acuerdos, dudas, “cosas por hacer”…

Europa se cae del ‘top 25’ mundial por capitalización: qué dice esto del mapa tecnológico de 2025 y cómo volver al tablero antes de 2030

La foto de mercado de 2025 es contundente: ninguna empresa europea figura ya entre las 25 mayores del mundo por capitalización bursátil. La lista, dominada por EE. UU. y flanqueada por TSMC (Taiwán), Tencent (China) y Saudi Aramco (Arabia Saudí), es algo más que un ranking financiero: es un mapa de poder tecnológico. Habla de quién tiene los chips que todos quieren, quién opera las nubes donde corren los modelos de IA, quién controla los pagos y quién dispone de megavatios firmes para levantar hyperscale y centros de datos de 80 kW/rack. Para un medio de tecnología, la pregunta no es “¿por qué se ha ido Europa?”, sino “qué hay que construir para volver”. Y la respuesta no pasa por

Bare-metal para la era de la IA: cómo alojar racks de 80 kW sin “romper” la red eléctrica (y sin romper tus SLA)

Madrid. 2025. La IA ya no es una demo de laboratorio: es estrategia de negocio. Pero su cara B es una demanda eléctrica y térmica inédita. Los racks GPU de nueva generación consumen 50–80 kW de forma sostenida —y los primeros pilotos superan 100 kW— mientras muchos CPD heredados siguen dimensionados para 5–10 kW/rack. Incluso hiperescalares en polos como Ashburn (N. Virginia), Dublín o Singapur se topan con moratorias o cupos de conexión. En este contexto, bare-metal deja de ser “nicho” y se convierte en pieza central para entrenar e inferir LLMs a gran escala sin colapsar la infraestructura eléctrica ni traicionar los compromisos ESG. “Lo que vemos en 2025 es simple: o te mueves a bare-metal de alta densidad

×