Etiqueta: Accenture

Europa regula la IA con el AI Act, pero todavía no domina su cadena de valor

Europa lleva años convirtiendo la regulación tecnológica en una de sus marcas de la casa, y rara vez se le discute el oficio. Lo que cuesta defender, conforme avanzan Estados Unidos y China en Inteligencia Artificial, es que ese músculo normativo baste para liderar. La discusión vuelve a abrirse con fuerza tras una nueva ola de críticas al modelo europeo: muchas reglas, mucha supervisión y todavía poca capacidad propia en chips, nube, modelos fundacionales y cómputo a gran escala. La cuestión pesa. La UE ha logrado marcar terreno con el AI Act, que entró en vigor el 1 de agosto de 2024 y será plenamente aplicable, salvo excepciones, desde el 2 de agosto de 2026. Bruselas ha levantado un marco

La inferencia de IA ya presiona las CPU y Intel ve más tensión en el mercado

La Inteligencia Artificial ya no está tirando solo de GPU, memoria y SSD. Intel ha dejado claro en sus últimos resultados que la siguiente gran presión del mercado puede venir de las CPU de servidor, impulsadas por el salto desde el entrenamiento de modelos hacia cargas de inferencia, agentes de IA y sistemas más distribuidos. La compañía sostiene que “la próxima ola de IA” llevará la inteligencia más cerca del usuario final y que ese cambio está elevando de forma significativa la necesidad de procesadores, obleas y capacidad de empaquetado avanzado. No es un matiz menor. Durante los últimos años, la narrativa dominante colocó a la GPU como reina absoluta del auge de la IA. Pero Intel cree que esa

Samsung y TSMC se reparten los chips de inferencia de Nvidia

La carrera por la inteligencia artificial ya no se decide solo en el entrenamiento de modelos grandes. La inferencia, esa fase en la que los modelos responden, razonan y ejecutan tareas para alimentar agentes de IA, se ha convertido en un nuevo frente para fabricantes de chips, fundiciones y proveedores de memoria. Sobre ese tablero, Samsung tiene una oportunidad poco habitual: recuperar peso dentro de la cadena de suministro de Nvidia. El detonante es la tecnología LPU de Groq, diseñada para inferencia de baja latencia. Algunos análisis del sector hablan incluso de adquisición encubierta, aunque el comunicado oficial de Groq describe el movimiento como una licencia no exclusiva de su tecnología de inferencia para Nvidia, acompañada por la incorporación de

Impacto de la Frontier AI en la ciberseguridad y cómo pueden defenderse las organizaciones

La compañía Palo Alto Networks ha llevado a cabo pruebas iniciales con algunos de los modelos de inteligencia artificial más avanzados del momento, conocidos como Frontier AI. Entre ellos se incluyen el modelo Mythos de Anthropic, en el marco del Project Glasswing, y las últimas propuestas de OpenAI dentro del programa Trusted Access for Cyber. A partir de estos ensayos, la compañía ha observado que los avances generacionales en la capacidad de programación de estos modelos tienen un impacto directo en el ámbito de la ciberseguridad, mejorando de forma notable tanto la identificación de vulnerabilidades como la creación de exploits. Asimismo, advierten de que, aunque estos sistemas cuentan con mecanismos de protección, sus capacidades no permanecerán completamente contenidas. Según sus

Snowflake amplía Cortex Code y Snowflake Intelligence con MCP y ACP

Snowflake ha empujado este mes una nueva tanda de actualizaciones para sus dos piezas de IA empresarial, Snowflake Intelligence y Cortex Code, con un objetivo poco disimulado: situarse en el centro de control de la llamada empresa agéntica y disputar ese terreno a Databricks, Google Cloud y los hiperescalares. La compañía afirma que más de 9.100 clientes usan ya sus productos de IA cada semana y que más del 50% de sus clientes ha activado Cortex Code desde su lanzamiento en noviembre de 2025, dos cifras que conviene leer con la cautela habitual al tratarse de datos del propio fabricante. El movimiento llega en un momento en el que las grandes plataformas de datos compiten por convertirse en la capa

Cataluña acelera 26 nuevos centros de datos: 2.000 MW bajo debate

Cataluña quiere ganar peso en el mapa europeo de los centros de datos en plena expansión de la inteligencia artificial, la nube y los servicios digitales. La Generalitat ha identificado 26 proyectos potenciales que podrían declararse estratégicos o de interés general superior para agilizar su tramitación, con una potencia agregada en torno a los 2.000 MW, una cifra muy superior a los 122 MW actualmente instalados en los 17 centros de datos que el Govern tiene contabilizados. La apuesta sitúa a Cataluña ante una oportunidad industrial relevante, pero también ante un debate cada vez más incómodo: cómo atraer inversión tecnológica intensiva sin desbordar el consumo eléctrico, la demanda de agua y la presión sobre el territorio. Los proyectos se concentran

Europa regula la IA con el AI Act, pero todavía no domina su cadena de valor

Europa lleva años convirtiendo la regulación tecnológica en una de sus marcas de la casa, y rara vez se le discute el oficio. Lo que cuesta defender, conforme avanzan Estados Unidos y China en Inteligencia Artificial, es que ese músculo normativo baste para liderar. La discusión vuelve a abrirse con fuerza tras una nueva ola de críticas al modelo europeo: muchas reglas, mucha supervisión y todavía poca capacidad propia en chips, nube, modelos fundacionales y cómputo a gran escala. La cuestión pesa. La UE ha logrado marcar terreno con el AI Act, que entró en vigor el 1 de agosto de 2024 y será plenamente aplicable, salvo excepciones, desde el 2 de agosto de 2026. Bruselas ha levantado un marco

La inferencia de IA ya presiona las CPU y Intel ve más tensión en el mercado

La Inteligencia Artificial ya no está tirando solo de GPU, memoria y SSD. Intel ha dejado claro en sus últimos resultados que la siguiente gran presión del mercado puede venir de las CPU de servidor, impulsadas por el salto desde el entrenamiento de modelos hacia cargas de inferencia, agentes de IA y sistemas más distribuidos. La compañía sostiene que “la próxima ola de IA” llevará la inteligencia más cerca del usuario final y que ese cambio está elevando de forma significativa la necesidad de procesadores, obleas y capacidad de empaquetado avanzado. No es un matiz menor. Durante los últimos años, la narrativa dominante colocó a la GPU como reina absoluta del auge de la IA. Pero Intel cree que esa

Samsung y TSMC se reparten los chips de inferencia de Nvidia

La carrera por la inteligencia artificial ya no se decide solo en el entrenamiento de modelos grandes. La inferencia, esa fase en la que los modelos responden, razonan y ejecutan tareas para alimentar agentes de IA, se ha convertido en un nuevo frente para fabricantes de chips, fundiciones y proveedores de memoria. Sobre ese tablero, Samsung tiene una oportunidad poco habitual: recuperar peso dentro de la cadena de suministro de Nvidia. El detonante es la tecnología LPU de Groq, diseñada para inferencia de baja latencia. Algunos análisis del sector hablan incluso de adquisición encubierta, aunque el comunicado oficial de Groq describe el movimiento como una licencia no exclusiva de su tecnología de inferencia para Nvidia, acompañada por la incorporación de

Impacto de la Frontier AI en la ciberseguridad y cómo pueden defenderse las organizaciones

La compañía Palo Alto Networks ha llevado a cabo pruebas iniciales con algunos de los modelos de inteligencia artificial más avanzados del momento, conocidos como Frontier AI. Entre ellos se incluyen el modelo Mythos de Anthropic, en el marco del Project Glasswing, y las últimas propuestas de OpenAI dentro del programa Trusted Access for Cyber. A partir de estos ensayos, la compañía ha observado que los avances generacionales en la capacidad de programación de estos modelos tienen un impacto directo en el ámbito de la ciberseguridad, mejorando de forma notable tanto la identificación de vulnerabilidades como la creación de exploits. Asimismo, advierten de que, aunque estos sistemas cuentan con mecanismos de protección, sus capacidades no permanecerán completamente contenidas. Según sus

Snowflake amplía Cortex Code y Snowflake Intelligence con MCP y ACP

Snowflake ha empujado este mes una nueva tanda de actualizaciones para sus dos piezas de IA empresarial, Snowflake Intelligence y Cortex Code, con un objetivo poco disimulado: situarse en el centro de control de la llamada empresa agéntica y disputar ese terreno a Databricks, Google Cloud y los hiperescalares. La compañía afirma que más de 9.100 clientes usan ya sus productos de IA cada semana y que más del 50% de sus clientes ha activado Cortex Code desde su lanzamiento en noviembre de 2025, dos cifras que conviene leer con la cautela habitual al tratarse de datos del propio fabricante. El movimiento llega en un momento en el que las grandes plataformas de datos compiten por convertirse en la capa

Cataluña acelera 26 nuevos centros de datos: 2.000 MW bajo debate

Cataluña quiere ganar peso en el mapa europeo de los centros de datos en plena expansión de la inteligencia artificial, la nube y los servicios digitales. La Generalitat ha identificado 26 proyectos potenciales que podrían declararse estratégicos o de interés general superior para agilizar su tramitación, con una potencia agregada en torno a los 2.000 MW, una cifra muy superior a los 122 MW actualmente instalados en los 17 centros de datos que el Govern tiene contabilizados. La apuesta sitúa a Cataluña ante una oportunidad industrial relevante, pero también ante un debate cada vez más incómodo: cómo atraer inversión tecnológica intensiva sin desbordar el consumo eléctrico, la demanda de agua y la presión sobre el territorio. Los proyectos se concentran

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×