Etiqueta: ataques

TurboQuant no arreglará la presión sobre la memoria: SK hynix cree que la IA consumirá aún más

Cuando Google presentó TurboQuant en marzo, parte del sector interpretó el anuncio como una posible vía para aliviar la presión sobre la memoria en los grandes modelos. No era una lectura absurda: la propia compañía explicó que su técnica permite comprimir la KV cache, reducir su huella de memoria y acelerar determinadas cargas de trabajo de IA sin penalizar la calidad en sus pruebas. Pero una cosa es mejorar la eficiencia por consulta y otra muy distinta resolver el desequilibrio industrial que vive hoy el mercado de la memoria. De hecho, SK hynix ha planteado justo la tesis contraria. En la presentación de sus resultados del primer trimestre de 2026, la compañía sostuvo que la expansión de las tecnologías de

Gartner prevé que el gasto mundial en IT crezca un 13,5 % en 2026

El gasto mundial en tecnología de la información no solo seguirá creciendo en 2026, sino que lo hará a un ritmo más intenso del previsto hace apenas unos meses. Gartner calcula ahora que el mercado alcanzará los 6,31 billones de dólares este año, un 13,5 % más que en 2025, impulsado sobre todo por la aceleración de la infraestructura para Inteligencia Artificial, el software y los servicios cloud. La revisión al alza es significativa porque refleja un cambio de velocidad en el mercado. En febrero, la misma firma esperaba 6,15 billones de dólares de gasto IT en 2026, con un crecimiento del 10,8 %. Apenas dos meses después, Gartner ha elevado esa previsión hasta 6,31 billones y ha revisado con

SK hynix apunta a otro trimestre récord con la memoria disparada por la IA

La memoria vuelve a colocarse en el centro de la industria del chip, y SK hynix es, ahora mismo, uno de los grandes termómetros de ese ciclo. Tras cerrar un primer trimestre histórico, el fabricante surcoreano encara un segundo trimestre que podría ser incluso mejor si se mantienen dos factores que hoy siguen jugando a su favor: la subida de precios en DRAM y NAND, y el mayor peso de los productos de más valor ligados a la infraestructura de Inteligencia Artificial. No se trata todavía de un resultado confirmado, sino de una previsión apoyada tanto en la evolución del mercado como en las guías que maneja la propia compañía. Pero el contexto es suficientemente sólido como para que parte

Tesla da a Intel su primer gran cliente para 14A con el proyecto Terafab

Intel ha logrado por fin la validación que llevaba tiempo persiguiendo para su negocio de fundición avanzada. Tesla planea usar el proceso 14A de Intel en el proyecto Terafab, el gran complejo de chips para IA que Elon Musk ha planteado en Austin, según declaró el propio empresario en la presentación de resultados de Tesla y recogió Reuters. De confirmarse en producción, sería el primer gran cliente externo de Intel para esta tecnología y un respaldo estratégico para una compañía que todavía intenta demostrar que puede competir de verdad con TSMC en la fabricación para terceros. La noticia importa por dos razones. La primera es puramente industrial: Intel necesitaba un nombre de peso para legitimar 14A, su futuro nodo de

Shenzhen activa un clúster de IA de 14.000P con tecnología china de extremo a extremo

Shenzhen ha puesto en marcha un nuevo clúster de computación para Inteligencia Artificial que, según la información difundida por el gobierno local y por medios especializados, alcanza ya 14.000P de capacidad total tras sumar una nueva fase de 11.000P a un despliegue previo de 3.000P. Lo relevante no es solo la cifra, sino su planteamiento: se presenta como el primer clúster chino de nivel “10.000 tarjetas” construido con una pila tecnológica doméstica de extremo a extremo, desde los aceleradores hasta la red, el almacenamiento, el software de orquestación y la operación del sistema. La activación oficial de esta segunda fase se produjo el 26 de marzo de 2026, según el Ayuntamiento de Shenzhen, que la encuadra dentro de su estrategia

Google estrena TPU 8t y 8i para acelerar la era de los agentes de IA

Google ha presentado la octava generación de sus Tensor Processing Units (TPU) y, por primera vez, ha dividido claramente su estrategia en dos chips distintos: TPU 8t, orientado al entrenamiento de modelos, y TPU 8i, diseñado para inferencia de baja latencia. La compañía los sitúa como su respuesta a una nueva etapa de la Inteligencia Artificial, marcada por agentes que ya no solo responden preguntas, sino que razonan, encadenan pasos, aprenden de sus acciones y ejecutan flujos complejos en tiempo real. El mensaje de Google es claro: la IA agéntica ya no encaja bien en una infraestructura genérica. Por eso ha optado por dos arquitecturas “purpose-built”, es decir, especializadas desde el diseño para cargas muy diferentes. TPU 8t se centra

TurboQuant no arreglará la presión sobre la memoria: SK hynix cree que la IA consumirá aún más

Cuando Google presentó TurboQuant en marzo, parte del sector interpretó el anuncio como una posible vía para aliviar la presión sobre la memoria en los grandes modelos. No era una lectura absurda: la propia compañía explicó que su técnica permite comprimir la KV cache, reducir su huella de memoria y acelerar determinadas cargas de trabajo de IA sin penalizar la calidad en sus pruebas. Pero una cosa es mejorar la eficiencia por consulta y otra muy distinta resolver el desequilibrio industrial que vive hoy el mercado de la memoria. De hecho, SK hynix ha planteado justo la tesis contraria. En la presentación de sus resultados del primer trimestre de 2026, la compañía sostuvo que la expansión de las tecnologías de

Gartner prevé que el gasto mundial en IT crezca un 13,5 % en 2026

El gasto mundial en tecnología de la información no solo seguirá creciendo en 2026, sino que lo hará a un ritmo más intenso del previsto hace apenas unos meses. Gartner calcula ahora que el mercado alcanzará los 6,31 billones de dólares este año, un 13,5 % más que en 2025, impulsado sobre todo por la aceleración de la infraestructura para Inteligencia Artificial, el software y los servicios cloud. La revisión al alza es significativa porque refleja un cambio de velocidad en el mercado. En febrero, la misma firma esperaba 6,15 billones de dólares de gasto IT en 2026, con un crecimiento del 10,8 %. Apenas dos meses después, Gartner ha elevado esa previsión hasta 6,31 billones y ha revisado con

SK hynix apunta a otro trimestre récord con la memoria disparada por la IA

La memoria vuelve a colocarse en el centro de la industria del chip, y SK hynix es, ahora mismo, uno de los grandes termómetros de ese ciclo. Tras cerrar un primer trimestre histórico, el fabricante surcoreano encara un segundo trimestre que podría ser incluso mejor si se mantienen dos factores que hoy siguen jugando a su favor: la subida de precios en DRAM y NAND, y el mayor peso de los productos de más valor ligados a la infraestructura de Inteligencia Artificial. No se trata todavía de un resultado confirmado, sino de una previsión apoyada tanto en la evolución del mercado como en las guías que maneja la propia compañía. Pero el contexto es suficientemente sólido como para que parte

Tesla da a Intel su primer gran cliente para 14A con el proyecto Terafab

Intel ha logrado por fin la validación que llevaba tiempo persiguiendo para su negocio de fundición avanzada. Tesla planea usar el proceso 14A de Intel en el proyecto Terafab, el gran complejo de chips para IA que Elon Musk ha planteado en Austin, según declaró el propio empresario en la presentación de resultados de Tesla y recogió Reuters. De confirmarse en producción, sería el primer gran cliente externo de Intel para esta tecnología y un respaldo estratégico para una compañía que todavía intenta demostrar que puede competir de verdad con TSMC en la fabricación para terceros. La noticia importa por dos razones. La primera es puramente industrial: Intel necesitaba un nombre de peso para legitimar 14A, su futuro nodo de

Shenzhen activa un clúster de IA de 14.000P con tecnología china de extremo a extremo

Shenzhen ha puesto en marcha un nuevo clúster de computación para Inteligencia Artificial que, según la información difundida por el gobierno local y por medios especializados, alcanza ya 14.000P de capacidad total tras sumar una nueva fase de 11.000P a un despliegue previo de 3.000P. Lo relevante no es solo la cifra, sino su planteamiento: se presenta como el primer clúster chino de nivel “10.000 tarjetas” construido con una pila tecnológica doméstica de extremo a extremo, desde los aceleradores hasta la red, el almacenamiento, el software de orquestación y la operación del sistema. La activación oficial de esta segunda fase se produjo el 26 de marzo de 2026, según el Ayuntamiento de Shenzhen, que la encuadra dentro de su estrategia

Google estrena TPU 8t y 8i para acelerar la era de los agentes de IA

Google ha presentado la octava generación de sus Tensor Processing Units (TPU) y, por primera vez, ha dividido claramente su estrategia en dos chips distintos: TPU 8t, orientado al entrenamiento de modelos, y TPU 8i, diseñado para inferencia de baja latencia. La compañía los sitúa como su respuesta a una nueva etapa de la Inteligencia Artificial, marcada por agentes que ya no solo responden preguntas, sino que razonan, encadenan pasos, aprenden de sus acciones y ejecutan flujos complejos en tiempo real. El mensaje de Google es claro: la IA agéntica ya no encaja bien en una infraestructura genérica. Por eso ha optado por dos arquitecturas “purpose-built”, es decir, especializadas desde el diseño para cargas muy diferentes. TPU 8t se centra

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×