Etiqueta: servicios esenciales

Rusia pone fecha a su EUV “propio”: chips por debajo de 10 nm en 2037, láseres de estado sólido y espejos Ru/Be a 11,2 nm

Rusia ha presentado una hoja de ruta que, de cumplirse, cambiaría su posición en la carrera mundial de la fabricación de chips: desarrollar litografía EUV y de rayos X con la que producir desde 65 nm hasta resoluciones por debajo de 10 nm entre 2026 y 2037. La propuesta, divulgada por el divulgador Dmitrii Kuznetsov en X (antes Twitter), combina un calendario agresivo —steppers de 40 nm en 2026, escáneres de 28/14 nm entre 2029 y 2032 y equipos de 13/9 nm entre 2033 y 2036, con EUV “plena” en 2037— y una apuesta por tecnologías distintas de las de ASML: láseres híbridos de estado sólido, fuentes de plasma de xenón (en lugar de estaño) y espejos de rutenio/berilio operando

Oracle lanza agentes de IA “por rol” en Fusion Cloud para Marketing, Ventas y Servicio: automatización nativa en los flujos de trabajo para abrir nuevas vías de ingresos

Oracle ha dado un paso decidido para convertir la IA agentiva en una herramienta cotidiana de marketing, ventas y servicio al cliente. La compañía anunció la incorporación de agentes de IA por rol dentro de Oracle Fusion Cloud Applications, con foco en Customer Experience (CX). La promesa es ambiciosa, pero concreta: automatizar procesos, analizar datos conectados y desbloquear oportunidades de ingresos sin que los equipos tengan que salir de los flujos de trabajo que ya usan todos los días. Los nuevos agentes, que se ejecutan en Oracle Cloud Infrastructure (OCI), están preintegrados en Fusion y se incluyen sin coste adicional, según la compañía. Al estar embebidos en procesos de negocio existentes, no piden al usuario “cambiar de aplicación”: actúan como

Altera pisa el acelerador en FPGAs: más densidad en Agilex 5 D-Series, “secure boot” poscuántico y un nuevo Visual Designer que reduce el arranque de diseño de 5 días a 2 horas

La Altera “pura de FPGAs” ha vuelto a escena con músculo de producto y, sobre todo, con una apuesta decidida por simplificar la vida a los equipos de diseño. En su Innovators Day, la compañía anunció la disponibilidad en producción de todas las familias Agilex (incluidas Agilex 5 y Agilex 3 SoC FPGAs) y estrenó Quartus Prime 25.3 con un nuevo Visual Designer Studio orientado a recortar semanas en la integración de IP. La guinda: una subida de densidad de hasta 2,5× en los Agilex 5 D-Series —hasta 1,6 millones de elementos lógicos—, interfaces DDR5 y LPDDR5 más rápidas y arranque seguro con criptografía poscuántica (PQC), un guiño directo a mercados sensibles (industrial, defensa, aeroespacial, comunicaciones, edge IA o datacenter).

IBM y AMD montan para Zyphra un “full-stack” de IA en IBM Cloud con MI300X: primer macrocluster dedicado, NICs y DPUs de Pensando, y expansión en 2026

IBM y AMD han anunciado una colaboración para suministrar a Zyphra —startup de San Francisco centrada en “superinteligencia” open-source— una infraestructura avanzada de entrenamiento de modelos de IA en IBM Cloud basada en GPU AMD Instinct™ MI300X. El acuerdo, multianual, coloca a IBM como proveedor de un gran clúster dedicado con aceleradores de AMD para entrenar modelos fundacionales multimodales (lenguaje, visión y audio). Es, según las empresas, el primer despliegue a gran escala en IBM Cloud que integra la pila completa de AMD para entrenamiento —desde cómputo hasta red— y, de hecho, se apoya también en AMD Pensando™ Pollara 400 AI NICs y AMD Pensando Ortano DPUs. El primer tramo se puso en marcha a inicios de septiembre y se

OpenAI mueve ficha en hardware: 6 GW con AMD y una estrategia “multi-proveedor” que también abraza a NVIDIA y al resto de la cadena de chips

OpenAI ya no solo es sinónimo de modelos y apps; también empieza a serlo de infraestructura. La compañía ha anunciado un acuerdo multianual con AMD para desplegar hasta 6 gigavatios (GW) de capacidad en GPU para IA —con un primer tramo de 1 GW de Instinct™ MI450 fijado para la segunda mitad de 2026— y un warrant por hasta 160 millones de acciones de AMD ligado al cumplimiento de hitos técnicos, comerciales y umbrales de precio de la acción. Más allá del titular, la señal estratégica es nítida: OpenAI se está posicionando con varios proveedores de cómputo a la vez, AMD incluida, NVIDIA por supuesto, y con el resto de actores que hacen posible escalar IA (fundiciones, packaging, memoria HBM,

Snowflake lanza Cortex AI para Servicios Financieros: agentes y apps de IA “enterprise-ready”, datos regulados y un MCP Server para interoperar con todo el ecosistema

Snowflake, la compañía del AI Data Cloud (NYSE: SNOW), ha presentado Cortex AI for Financial Services, un paquete de capacidades y alianzas diseñado para que bancos, gestoras, fintech y aseguradoras unifiquen su ecosistema de datos y desplieguen modelos, apps y agentes de IA encima de esos datos con seguridad y cumplimiento regulatorio. La propuesta llega con dos mensajes nítidos: llevar la IA al lugar donde ya vive el dato —Snowflake— y hacerlo interoperable con agentes y plataformas externas mediante un Model Context Protocol (MCP) Server gestionado, ya en public preview. “El sector financiero siempre ha sido pionero, pero convive con datos fragmentados, cumplimiento robusto y la necesidad de gobernanza férrea”, apunta Baris Gultekin, VP de IA en Snowflake. “Al acercar

Rusia pone fecha a su EUV “propio”: chips por debajo de 10 nm en 2037, láseres de estado sólido y espejos Ru/Be a 11,2 nm

Rusia ha presentado una hoja de ruta que, de cumplirse, cambiaría su posición en la carrera mundial de la fabricación de chips: desarrollar litografía EUV y de rayos X con la que producir desde 65 nm hasta resoluciones por debajo de 10 nm entre 2026 y 2037. La propuesta, divulgada por el divulgador Dmitrii Kuznetsov en X (antes Twitter), combina un calendario agresivo —steppers de 40 nm en 2026, escáneres de 28/14 nm entre 2029 y 2032 y equipos de 13/9 nm entre 2033 y 2036, con EUV “plena” en 2037— y una apuesta por tecnologías distintas de las de ASML: láseres híbridos de estado sólido, fuentes de plasma de xenón (en lugar de estaño) y espejos de rutenio/berilio operando

Oracle lanza agentes de IA “por rol” en Fusion Cloud para Marketing, Ventas y Servicio: automatización nativa en los flujos de trabajo para abrir nuevas vías de ingresos

Oracle ha dado un paso decidido para convertir la IA agentiva en una herramienta cotidiana de marketing, ventas y servicio al cliente. La compañía anunció la incorporación de agentes de IA por rol dentro de Oracle Fusion Cloud Applications, con foco en Customer Experience (CX). La promesa es ambiciosa, pero concreta: automatizar procesos, analizar datos conectados y desbloquear oportunidades de ingresos sin que los equipos tengan que salir de los flujos de trabajo que ya usan todos los días. Los nuevos agentes, que se ejecutan en Oracle Cloud Infrastructure (OCI), están preintegrados en Fusion y se incluyen sin coste adicional, según la compañía. Al estar embebidos en procesos de negocio existentes, no piden al usuario “cambiar de aplicación”: actúan como

Altera pisa el acelerador en FPGAs: más densidad en Agilex 5 D-Series, “secure boot” poscuántico y un nuevo Visual Designer que reduce el arranque de diseño de 5 días a 2 horas

La Altera “pura de FPGAs” ha vuelto a escena con músculo de producto y, sobre todo, con una apuesta decidida por simplificar la vida a los equipos de diseño. En su Innovators Day, la compañía anunció la disponibilidad en producción de todas las familias Agilex (incluidas Agilex 5 y Agilex 3 SoC FPGAs) y estrenó Quartus Prime 25.3 con un nuevo Visual Designer Studio orientado a recortar semanas en la integración de IP. La guinda: una subida de densidad de hasta 2,5× en los Agilex 5 D-Series —hasta 1,6 millones de elementos lógicos—, interfaces DDR5 y LPDDR5 más rápidas y arranque seguro con criptografía poscuántica (PQC), un guiño directo a mercados sensibles (industrial, defensa, aeroespacial, comunicaciones, edge IA o datacenter).

IBM y AMD montan para Zyphra un “full-stack” de IA en IBM Cloud con MI300X: primer macrocluster dedicado, NICs y DPUs de Pensando, y expansión en 2026

IBM y AMD han anunciado una colaboración para suministrar a Zyphra —startup de San Francisco centrada en “superinteligencia” open-source— una infraestructura avanzada de entrenamiento de modelos de IA en IBM Cloud basada en GPU AMD Instinct™ MI300X. El acuerdo, multianual, coloca a IBM como proveedor de un gran clúster dedicado con aceleradores de AMD para entrenar modelos fundacionales multimodales (lenguaje, visión y audio). Es, según las empresas, el primer despliegue a gran escala en IBM Cloud que integra la pila completa de AMD para entrenamiento —desde cómputo hasta red— y, de hecho, se apoya también en AMD Pensando™ Pollara 400 AI NICs y AMD Pensando Ortano DPUs. El primer tramo se puso en marcha a inicios de septiembre y se

OpenAI mueve ficha en hardware: 6 GW con AMD y una estrategia “multi-proveedor” que también abraza a NVIDIA y al resto de la cadena de chips

OpenAI ya no solo es sinónimo de modelos y apps; también empieza a serlo de infraestructura. La compañía ha anunciado un acuerdo multianual con AMD para desplegar hasta 6 gigavatios (GW) de capacidad en GPU para IA —con un primer tramo de 1 GW de Instinct™ MI450 fijado para la segunda mitad de 2026— y un warrant por hasta 160 millones de acciones de AMD ligado al cumplimiento de hitos técnicos, comerciales y umbrales de precio de la acción. Más allá del titular, la señal estratégica es nítida: OpenAI se está posicionando con varios proveedores de cómputo a la vez, AMD incluida, NVIDIA por supuesto, y con el resto de actores que hacen posible escalar IA (fundiciones, packaging, memoria HBM,

Snowflake lanza Cortex AI para Servicios Financieros: agentes y apps de IA “enterprise-ready”, datos regulados y un MCP Server para interoperar con todo el ecosistema

Snowflake, la compañía del AI Data Cloud (NYSE: SNOW), ha presentado Cortex AI for Financial Services, un paquete de capacidades y alianzas diseñado para que bancos, gestoras, fintech y aseguradoras unifiquen su ecosistema de datos y desplieguen modelos, apps y agentes de IA encima de esos datos con seguridad y cumplimiento regulatorio. La propuesta llega con dos mensajes nítidos: llevar la IA al lugar donde ya vive el dato —Snowflake— y hacerlo interoperable con agentes y plataformas externas mediante un Model Context Protocol (MCP) Server gestionado, ya en public preview. “El sector financiero siempre ha sido pionero, pero convive con datos fragmentados, cumplimiento robusto y la necesidad de gobernanza férrea”, apunta Baris Gultekin, VP de IA en Snowflake. “Al acercar

×