Etiqueta: ofimática

Europa regula la IA con el AI Act, pero todavía no domina su cadena de valor

Europa lleva años convirtiendo la regulación tecnológica en una de sus marcas de la casa, y rara vez se le discute el oficio. Lo que cuesta defender, conforme avanzan Estados Unidos y China en Inteligencia Artificial, es que ese músculo normativo baste para liderar. La discusión vuelve a abrirse con fuerza tras una nueva ola de críticas al modelo europeo: muchas reglas, mucha supervisión y todavía poca capacidad propia en chips, nube, modelos fundacionales y cómputo a gran escala. La cuestión pesa. La UE ha logrado marcar terreno con el AI Act, que entró en vigor el 1 de agosto de 2024 y será plenamente aplicable, salvo excepciones, desde el 2 de agosto de 2026. Bruselas ha levantado un marco

La inferencia de IA presiona las CPU y deja a Intel con la oferta justa

La Inteligencia Artificial ya no tira solo de GPU, memoria y SSD. Intel ha dejado claro en sus últimos resultados que la siguiente gran presión del mercado puede venir de las CPU de servidor, empujadas por el salto desde el entrenamiento de modelos hacia cargas de inferencia, agentes y sistemas más distribuidos. La compañía sostiene que la próxima ola de IA acercará la inteligencia al usuario final y que ese cambio está elevando de forma notable la necesidad de procesadores, obleas y empaquetado avanzado. Quien quiera ir al detalle puede revisar la nota de resultados publicada por Intel. El matiz no es menor. Durante años, la narrativa dominante colocó a la GPU como reina absoluta del auge de la IA.

Samsung y TSMC se reparten los chips de inferencia de Nvidia

La carrera por la inteligencia artificial ya no se decide solo en el entrenamiento de modelos grandes. La inferencia, esa fase en la que los modelos responden, razonan y ejecutan tareas para alimentar agentes de IA, se ha convertido en un nuevo frente para fabricantes de chips, fundiciones y proveedores de memoria. Sobre ese tablero, Samsung tiene una oportunidad poco habitual: recuperar peso dentro de la cadena de suministro de Nvidia. El detonante es la tecnología LPU de Groq, diseñada para inferencia de baja latencia. Algunos análisis del sector hablan incluso de adquisición encubierta, aunque el comunicado oficial de Groq describe el movimiento como una licencia no exclusiva de su tecnología de inferencia para Nvidia, acompañada por la incorporación de

Frontier AI y ciberseguridad: cómo defenderse de los ataques

Palo Alto Networks ha llevado a cabo pruebas iniciales con algunos de los modelos de inteligencia artificial más avanzados del momento, conocidos como Frontier AI. Entre ellos figura el modelo Mythos de Anthropic, evaluado dentro del Project Glasswing, y las últimas propuestas de OpenAI dentro del programa Trusted Access for Cyber. Hablamos de modelos de generación GPT-5.5, Claude 4 y Gemini 3, capaces de razonar sobre código, encadenar tareas y operar como agentes durante horas seguidas. De los ensayos sale una conclusión incomoda. Los avances generacionales en programación se traducen, casi sin retraso, en un salto de capacidades en ciberseguridad. Estos modelos identifican vulnerabilidades antes y mejor, y construyen exploits funcionales con menos pasos manuales. La misma herramienta que ayuda

Snowflake amplía Cortex Code y Snowflake Intelligence con MCP y ACP

Snowflake ha empujado este mes una nueva tanda de actualizaciones para sus dos piezas de IA empresarial, Snowflake Intelligence y Cortex Code, con un objetivo poco disimulado: situarse en el centro de control de la llamada empresa agéntica y disputar ese terreno a Databricks, Google Cloud y los hiperescalares. La compañía afirma que más de 9.100 clientes usan ya sus productos de IA cada semana y que más del 50% de sus clientes ha activado Cortex Code desde su lanzamiento en noviembre de 2025, dos cifras que conviene leer con la cautela habitual al tratarse de datos del propio fabricante. El movimiento llega en un momento en el que las grandes plataformas de datos compiten por convertirse en la capa

Cataluña impulsa 26 nuevos centros de datos: 2.000 MW en juego

La Generalitat de Cataluña ha puesto sobre la mesa 26 proyectos de centros de datos que aspiran a ser declarados estratégicos o de interés general superior, con una potencia agregada cercana a los 2.000 MW. La cifra contrasta con los 122 MW instalados hoy en los 17 centros que la administración catalana tiene contabilizados, lo que supondría multiplicar por más de 16 la capacidad actual si todos los planes salen adelante. El despliegue, sin embargo, llega cargado de letra pequeña: presión sobre la red eléctrica, consumo de agua, debate territorial y reacciones desiguales de ayuntamientos, vecinos y entidades ecologistas. El movimiento se enmarca en la carrera europea por los data centers, alimentada por el auge de la nube, los servicios

Europa regula la IA con el AI Act, pero todavía no domina su cadena de valor

Europa lleva años convirtiendo la regulación tecnológica en una de sus marcas de la casa, y rara vez se le discute el oficio. Lo que cuesta defender, conforme avanzan Estados Unidos y China en Inteligencia Artificial, es que ese músculo normativo baste para liderar. La discusión vuelve a abrirse con fuerza tras una nueva ola de críticas al modelo europeo: muchas reglas, mucha supervisión y todavía poca capacidad propia en chips, nube, modelos fundacionales y cómputo a gran escala. La cuestión pesa. La UE ha logrado marcar terreno con el AI Act, que entró en vigor el 1 de agosto de 2024 y será plenamente aplicable, salvo excepciones, desde el 2 de agosto de 2026. Bruselas ha levantado un marco

La inferencia de IA presiona las CPU y deja a Intel con la oferta justa

La Inteligencia Artificial ya no tira solo de GPU, memoria y SSD. Intel ha dejado claro en sus últimos resultados que la siguiente gran presión del mercado puede venir de las CPU de servidor, empujadas por el salto desde el entrenamiento de modelos hacia cargas de inferencia, agentes y sistemas más distribuidos. La compañía sostiene que la próxima ola de IA acercará la inteligencia al usuario final y que ese cambio está elevando de forma notable la necesidad de procesadores, obleas y empaquetado avanzado. Quien quiera ir al detalle puede revisar la nota de resultados publicada por Intel. El matiz no es menor. Durante años, la narrativa dominante colocó a la GPU como reina absoluta del auge de la IA.

Samsung y TSMC se reparten los chips de inferencia de Nvidia

La carrera por la inteligencia artificial ya no se decide solo en el entrenamiento de modelos grandes. La inferencia, esa fase en la que los modelos responden, razonan y ejecutan tareas para alimentar agentes de IA, se ha convertido en un nuevo frente para fabricantes de chips, fundiciones y proveedores de memoria. Sobre ese tablero, Samsung tiene una oportunidad poco habitual: recuperar peso dentro de la cadena de suministro de Nvidia. El detonante es la tecnología LPU de Groq, diseñada para inferencia de baja latencia. Algunos análisis del sector hablan incluso de adquisición encubierta, aunque el comunicado oficial de Groq describe el movimiento como una licencia no exclusiva de su tecnología de inferencia para Nvidia, acompañada por la incorporación de

Frontier AI y ciberseguridad: cómo defenderse de los ataques

Palo Alto Networks ha llevado a cabo pruebas iniciales con algunos de los modelos de inteligencia artificial más avanzados del momento, conocidos como Frontier AI. Entre ellos figura el modelo Mythos de Anthropic, evaluado dentro del Project Glasswing, y las últimas propuestas de OpenAI dentro del programa Trusted Access for Cyber. Hablamos de modelos de generación GPT-5.5, Claude 4 y Gemini 3, capaces de razonar sobre código, encadenar tareas y operar como agentes durante horas seguidas. De los ensayos sale una conclusión incomoda. Los avances generacionales en programación se traducen, casi sin retraso, en un salto de capacidades en ciberseguridad. Estos modelos identifican vulnerabilidades antes y mejor, y construyen exploits funcionales con menos pasos manuales. La misma herramienta que ayuda

Snowflake amplía Cortex Code y Snowflake Intelligence con MCP y ACP

Snowflake ha empujado este mes una nueva tanda de actualizaciones para sus dos piezas de IA empresarial, Snowflake Intelligence y Cortex Code, con un objetivo poco disimulado: situarse en el centro de control de la llamada empresa agéntica y disputar ese terreno a Databricks, Google Cloud y los hiperescalares. La compañía afirma que más de 9.100 clientes usan ya sus productos de IA cada semana y que más del 50% de sus clientes ha activado Cortex Code desde su lanzamiento en noviembre de 2025, dos cifras que conviene leer con la cautela habitual al tratarse de datos del propio fabricante. El movimiento llega en un momento en el que las grandes plataformas de datos compiten por convertirse en la capa

Cataluña impulsa 26 nuevos centros de datos: 2.000 MW en juego

La Generalitat de Cataluña ha puesto sobre la mesa 26 proyectos de centros de datos que aspiran a ser declarados estratégicos o de interés general superior, con una potencia agregada cercana a los 2.000 MW. La cifra contrasta con los 122 MW instalados hoy en los 17 centros que la administración catalana tiene contabilizados, lo que supondría multiplicar por más de 16 la capacidad actual si todos los planes salen adelante. El despliegue, sin embargo, llega cargado de letra pequeña: presión sobre la red eléctrica, consumo de agua, debate territorial y reacciones desiguales de ayuntamientos, vecinos y entidades ecologistas. El movimiento se enmarca en la carrera europea por los data centers, alimentada por el auge de la nube, los servicios

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×