Etiqueta: móviles

Snowflake lanza Cortex AI para Servicios Financieros: agentes y apps de IA “enterprise-ready”, datos regulados y un MCP Server para interoperar con todo el ecosistema

Snowflake, la compañía del AI Data Cloud (NYSE: SNOW), ha presentado Cortex AI for Financial Services, un paquete de capacidades y alianzas diseñado para que bancos, gestoras, fintech y aseguradoras unifiquen su ecosistema de datos y desplieguen modelos, apps y agentes de IA encima de esos datos con seguridad y cumplimiento regulatorio. La propuesta llega con dos mensajes nítidos: llevar la IA al lugar donde ya vive el dato —Snowflake— y hacerlo interoperable con agentes y plataformas externas mediante un Model Context Protocol (MCP) Server gestionado, ya en public preview. “El sector financiero siempre ha sido pionero, pero convive con datos fragmentados, cumplimiento robusto y la necesidad de gobernanza férrea”, apunta Baris Gultekin, VP de IA en Snowflake. “Al acercar

Slack abre su plataforma a la “IA con contexto”: nueva API de búsqueda en tiempo real y servidor MCP para que los agentes trabajen con tus conversaciones (sin romper la gobernanza)

Slack, el sistema de mensajería corporativa de Salesforce, quiere convertirse en la capa de trabajo donde vivan —y sean realmente útiles— los agentes de IA. La compañía ha presentado dos piezas técnicas con esa ambición: una API de búsqueda en tiempo real (RTS) y un servidor del Model Context Protocol (MCP). Juntas, prometen algo que hasta ahora resultaba escurridizo: que las aplicaciones de IA accedan, con permisos finos y sin copiar datos, al contexto que ya está en Slack —mensajes, canales, archivos— y lo usen para responder, decidir y actuar dentro del propio flujo de trabajo. El movimiento no es menor. En la economía de los agentes, los datos conversacionales son el oro: reuniones, decisiones, acuerdos, dudas, “cosas por hacer”…

Europa se cae del ‘top 25’ mundial por capitalización: qué dice esto del mapa tecnológico de 2025 y cómo volver al tablero antes de 2030

La foto de mercado de 2025 es contundente: ninguna empresa europea figura ya entre las 25 mayores del mundo por capitalización bursátil. La lista, dominada por EE. UU. y flanqueada por TSMC (Taiwán), Tencent (China) y Saudi Aramco (Arabia Saudí), es algo más que un ranking financiero: es un mapa de poder tecnológico. Habla de quién tiene los chips que todos quieren, quién opera las nubes donde corren los modelos de IA, quién controla los pagos y quién dispone de megavatios firmes para levantar hyperscale y centros de datos de 80 kW/rack. Para un medio de tecnología, la pregunta no es “¿por qué se ha ido Europa?”, sino “qué hay que construir para volver”. Y la respuesta no pasa por

Bare-metal para la era de la IA: cómo alojar racks de 80 kW sin “romper” la red eléctrica (y sin romper tus SLA)

Madrid. 2025. La IA ya no es una demo de laboratorio: es estrategia de negocio. Pero su cara B es una demanda eléctrica y térmica inédita. Los racks GPU de nueva generación consumen 50–80 kW de forma sostenida —y los primeros pilotos superan 100 kW— mientras muchos CPD heredados siguen dimensionados para 5–10 kW/rack. Incluso hiperescalares en polos como Ashburn (N. Virginia), Dublín o Singapur se topan con moratorias o cupos de conexión. En este contexto, bare-metal deja de ser “nicho” y se convierte en pieza central para entrenar e inferir LLMs a gran escala sin colapsar la infraestructura eléctrica ni traicionar los compromisos ESG. “Lo que vemos en 2025 es simple: o te mueves a bare-metal de alta densidad

Cloudflare acelera y blinda su red con Rust: FL2 recorta 10 ms de latencia, sube un 25 % el rendimiento y prepara la próxima década

Cloudflare ha culminado uno de sus rediseños más profundos desde su nacimiento: FL2, una nueva implementación del “cerebro” que orquesta seguridad y rendimiento en su red global. Construido en Rust sobre el framework interno Oxy, FL2 sustituye progresivamente al histórico FL1 (NGINX/OpenResty/LuaJIT) y ya está ofreciendo –10 ms en la mediana de respuesta y un +25 % en pruebas de rendimiento independientes. Además, reduce a menos de la mitad el consumo de CPU y memoria, endurece la seguridad por diseño y acorta el tiempo de lanzamiento de nuevas funciones. En paralelo, la compañía actualizó su radiografía de velocidad: hoy afirma ser la red más rápida en el 48 % de las 1.000 principales redes “eyeball” (operadores con mayor base de

NVIDIA prepara un salto en refrigeración para Rubin Ultra: microcanales “direct-to-chip” para domar la nueva ola térmica de la IA

NVIDIA se enfrenta a un reto tan prosaico como determinante: el calor. A medida que cada generación de aceleradores de IA incrementa el consumo y la densidad en bastidores completos, la pregunta ya no es solo “cuántos TOPS” o “cuál es el ancho de banda de memoria”, sino cómo evacuar los vatios de forma sostenida y segura. Según información avanzada por la cuenta @QQ_Timmy, la compañía habría empezado a coordinar con socios un cambio relevante de enfoque para su próxima familia Rubin Ultra: placas frías de microcanales con refrigeración directa al chip (direct-to-chip, D2C). El objetivo no es menor: exprimir el rendimiento por vatio y dar margen térmico a un salto generacional que, desde Blackwell hasta Rubin, apunta a mayores

Snowflake lanza Cortex AI para Servicios Financieros: agentes y apps de IA “enterprise-ready”, datos regulados y un MCP Server para interoperar con todo el ecosistema

Snowflake, la compañía del AI Data Cloud (NYSE: SNOW), ha presentado Cortex AI for Financial Services, un paquete de capacidades y alianzas diseñado para que bancos, gestoras, fintech y aseguradoras unifiquen su ecosistema de datos y desplieguen modelos, apps y agentes de IA encima de esos datos con seguridad y cumplimiento regulatorio. La propuesta llega con dos mensajes nítidos: llevar la IA al lugar donde ya vive el dato —Snowflake— y hacerlo interoperable con agentes y plataformas externas mediante un Model Context Protocol (MCP) Server gestionado, ya en public preview. “El sector financiero siempre ha sido pionero, pero convive con datos fragmentados, cumplimiento robusto y la necesidad de gobernanza férrea”, apunta Baris Gultekin, VP de IA en Snowflake. “Al acercar

Slack abre su plataforma a la “IA con contexto”: nueva API de búsqueda en tiempo real y servidor MCP para que los agentes trabajen con tus conversaciones (sin romper la gobernanza)

Slack, el sistema de mensajería corporativa de Salesforce, quiere convertirse en la capa de trabajo donde vivan —y sean realmente útiles— los agentes de IA. La compañía ha presentado dos piezas técnicas con esa ambición: una API de búsqueda en tiempo real (RTS) y un servidor del Model Context Protocol (MCP). Juntas, prometen algo que hasta ahora resultaba escurridizo: que las aplicaciones de IA accedan, con permisos finos y sin copiar datos, al contexto que ya está en Slack —mensajes, canales, archivos— y lo usen para responder, decidir y actuar dentro del propio flujo de trabajo. El movimiento no es menor. En la economía de los agentes, los datos conversacionales son el oro: reuniones, decisiones, acuerdos, dudas, “cosas por hacer”…

Europa se cae del ‘top 25’ mundial por capitalización: qué dice esto del mapa tecnológico de 2025 y cómo volver al tablero antes de 2030

La foto de mercado de 2025 es contundente: ninguna empresa europea figura ya entre las 25 mayores del mundo por capitalización bursátil. La lista, dominada por EE. UU. y flanqueada por TSMC (Taiwán), Tencent (China) y Saudi Aramco (Arabia Saudí), es algo más que un ranking financiero: es un mapa de poder tecnológico. Habla de quién tiene los chips que todos quieren, quién opera las nubes donde corren los modelos de IA, quién controla los pagos y quién dispone de megavatios firmes para levantar hyperscale y centros de datos de 80 kW/rack. Para un medio de tecnología, la pregunta no es “¿por qué se ha ido Europa?”, sino “qué hay que construir para volver”. Y la respuesta no pasa por

Bare-metal para la era de la IA: cómo alojar racks de 80 kW sin “romper” la red eléctrica (y sin romper tus SLA)

Madrid. 2025. La IA ya no es una demo de laboratorio: es estrategia de negocio. Pero su cara B es una demanda eléctrica y térmica inédita. Los racks GPU de nueva generación consumen 50–80 kW de forma sostenida —y los primeros pilotos superan 100 kW— mientras muchos CPD heredados siguen dimensionados para 5–10 kW/rack. Incluso hiperescalares en polos como Ashburn (N. Virginia), Dublín o Singapur se topan con moratorias o cupos de conexión. En este contexto, bare-metal deja de ser “nicho” y se convierte en pieza central para entrenar e inferir LLMs a gran escala sin colapsar la infraestructura eléctrica ni traicionar los compromisos ESG. “Lo que vemos en 2025 es simple: o te mueves a bare-metal de alta densidad

Cloudflare acelera y blinda su red con Rust: FL2 recorta 10 ms de latencia, sube un 25 % el rendimiento y prepara la próxima década

Cloudflare ha culminado uno de sus rediseños más profundos desde su nacimiento: FL2, una nueva implementación del “cerebro” que orquesta seguridad y rendimiento en su red global. Construido en Rust sobre el framework interno Oxy, FL2 sustituye progresivamente al histórico FL1 (NGINX/OpenResty/LuaJIT) y ya está ofreciendo –10 ms en la mediana de respuesta y un +25 % en pruebas de rendimiento independientes. Además, reduce a menos de la mitad el consumo de CPU y memoria, endurece la seguridad por diseño y acorta el tiempo de lanzamiento de nuevas funciones. En paralelo, la compañía actualizó su radiografía de velocidad: hoy afirma ser la red más rápida en el 48 % de las 1.000 principales redes “eyeball” (operadores con mayor base de

NVIDIA prepara un salto en refrigeración para Rubin Ultra: microcanales “direct-to-chip” para domar la nueva ola térmica de la IA

NVIDIA se enfrenta a un reto tan prosaico como determinante: el calor. A medida que cada generación de aceleradores de IA incrementa el consumo y la densidad en bastidores completos, la pregunta ya no es solo “cuántos TOPS” o “cuál es el ancho de banda de memoria”, sino cómo evacuar los vatios de forma sostenida y segura. Según información avanzada por la cuenta @QQ_Timmy, la compañía habría empezado a coordinar con socios un cambio relevante de enfoque para su próxima familia Rubin Ultra: placas frías de microcanales con refrigeración directa al chip (direct-to-chip, D2C). El objetivo no es menor: exprimir el rendimiento por vatio y dar margen térmico a un salto generacional que, desde Blackwell hasta Rubin, apunta a mayores

×