Etiqueta: docs

2026 apunta a ser el “año del ASIC” en la nube, pero la memoria puede frenar el despliegue

La carrera por abaratar y escalar la computación para Inteligencia Artificial está empujando a los grandes proveedores de nube —y a su ecosistema de socios— hacia una fase nueva: más racks con aceleradores a medida (ASIC) y menos dependencia exclusiva de hardware estándar. La tesis es clara: cuando los volúmenes de inferencia crecen, la eficiencia por euro y por vatio pasa a mandar; y ahí, los diseños específicos (TPU, chips internos, aceleradores personalizados) ganan atractivo frente a soluciones generalistas. En ese contexto, varias fuentes del sector apuntan a un fuerte repunte de envíos de ASIC para cloud en 2026, con Broadcom capturando proyectos de producción a gran escala con múltiples proveedores de servicios cloud (CSP) y, en paralelo, compañías taiwanesas

TrendForce alerta: la memoria se convierte en el nuevo cuello de botella de la era IA y apunta a un pico histórico en 2027

La narrativa dominante de la infraestructura para inteligencia artificial suele girar alrededor de GPUs, interconexiones y centros de datos. Sin embargo, un informe reciente de TrendForce pone el foco en un componente que, en silencio, está condicionando costes, rendimiento y planificación de capacidad: la memoria. Según sus proyecciones, la evolución de las arquitecturas de IA —cada vez más orientadas a inferencia sostenida, grandes volúmenes de datos y acceso aleatorio— está empujando al mercado combinado de DRAM y NAND flash hacia un máximo histórico en 2027, con ritmos de crecimiento que recuerdan a una “segunda ola” del boom de la IA, pero esta vez con la memoria como protagonista. Un salto de escala: de ciclo sectorial a “infraestructura base” de la

Intel busca exprimir NVMe en Linux: un parche “cluster-aware” promete hasta un 15 % más en sistemas con muchos núcleos

En el mundo del rendimiento, no siempre ganan las grandes reescrituras. A veces, el salto llega por un detalle que parecía menor: dónde “caen” las interrupciones. Y es precisamente ahí donde ingenieros de Intel están empujando un cambio en el kernel Linux para mejorar el rendimiento de almacenamiento NVMe en servidores modernos con alto conteo de núcleos. El problema aparece cuando el número de IRQs de NVMe es menor que el número de CPUs, algo relativamente habitual en plataformas actuales. En ese escenario, varios núcleos terminan compartiendo la misma interrupción, y si la afinidad de esa IRQ no está bien alineada con la topología real del procesador, el coste se paga en latencia y rendimiento. Intel lo resume con una

El “apagón informático” deja de ser una anécdota: la pyme tech española lo ve ya como un riesgo de continuidad

Durante años, el concepto de “apagón informático” se asociaba a escenarios extremos: fallos masivos poco probables, incidentes que “les pasan a otros” o problemas puntuales que se resuelven con un reinicio y paciencia. Ese marco mental está cambiando. Según el Barómetro Tech 2025: radiografía de la pyme tecnológica española, elaborado por Hiscox, el 81 % de las pymes tecnológicas en España considera que un apagón informático constituye una seria amenaza para su negocio. En otras palabras: el corte de servicios digitales —sea por caída de infraestructura, interrupciones en la nube o incidentes en terceros— entra en el mismo tablero que los riesgos clásicos de seguridad. La lectura es relevante para un medio tecnológico porque sitúa la resiliencia operativa en el

Jensen Huang y el “Mercedes” que salió caro: NVIDIA pone rostro humano al mayor despliegue de infraestructura de la era IA

En un momento en el que la Inteligencia Artificial se ha convertido en el centro gravitacional de la tecnología —y, cada vez más, de la geopolítica industrial—, Jensen Huang ha optado por un registro poco habitual en un CEO de una compañía de su tamaño: el de la anécdota personal con moraleja financiera. En el Foro Económico Mundial de Davos, el consejero delegado de NVIDIA recordó cómo, tras la salida a bolsa, vendió acciones cuando la empresa estaba valorada en 300 millones de dólares para comprar a sus padres un Mercedes S-Class. Hoy admite que se arrepiente del timing. La historia, contada con naturalidad, funciona como metáfora de algo mayor: el vértigo de una revolución tecnológica que ha comprimido décadas

Infraestructura de TI ante el reto de la IA: solo el 38 % de los responsables de I&O cree que su entorno está listo

La conversación sobre Inteligencia Artificial lleva meses instalada en los comités de dirección, pero hay una realidad menos glamourosa que empieza a pesar más que los “demos”: la infraestructura. Un estudio reciente de Netskope retrata un escenario incómodo para muchas organizaciones: solo el 38 % de los líderes de Infraestructura y Operaciones (I&O) considera que su infraestructura está plenamente equipada para absorber las nuevas exigencias que llegan con la IA, mientras que apenas el 18 % afirma tener completa confianza en contar con el equipo y el presupuesto necesarios para cumplir con expectativas futuras de rendimiento, resiliencia y seguridad. Ese desajuste, más que una cifra, describe una tensión creciente: la dirección exige velocidad, visibilidad y resultados; los equipos que sostienen

2026 apunta a ser el “año del ASIC” en la nube, pero la memoria puede frenar el despliegue

La carrera por abaratar y escalar la computación para Inteligencia Artificial está empujando a los grandes proveedores de nube —y a su ecosistema de socios— hacia una fase nueva: más racks con aceleradores a medida (ASIC) y menos dependencia exclusiva de hardware estándar. La tesis es clara: cuando los volúmenes de inferencia crecen, la eficiencia por euro y por vatio pasa a mandar; y ahí, los diseños específicos (TPU, chips internos, aceleradores personalizados) ganan atractivo frente a soluciones generalistas. En ese contexto, varias fuentes del sector apuntan a un fuerte repunte de envíos de ASIC para cloud en 2026, con Broadcom capturando proyectos de producción a gran escala con múltiples proveedores de servicios cloud (CSP) y, en paralelo, compañías taiwanesas

TrendForce alerta: la memoria se convierte en el nuevo cuello de botella de la era IA y apunta a un pico histórico en 2027

La narrativa dominante de la infraestructura para inteligencia artificial suele girar alrededor de GPUs, interconexiones y centros de datos. Sin embargo, un informe reciente de TrendForce pone el foco en un componente que, en silencio, está condicionando costes, rendimiento y planificación de capacidad: la memoria. Según sus proyecciones, la evolución de las arquitecturas de IA —cada vez más orientadas a inferencia sostenida, grandes volúmenes de datos y acceso aleatorio— está empujando al mercado combinado de DRAM y NAND flash hacia un máximo histórico en 2027, con ritmos de crecimiento que recuerdan a una “segunda ola” del boom de la IA, pero esta vez con la memoria como protagonista. Un salto de escala: de ciclo sectorial a “infraestructura base” de la

Intel busca exprimir NVMe en Linux: un parche “cluster-aware” promete hasta un 15 % más en sistemas con muchos núcleos

En el mundo del rendimiento, no siempre ganan las grandes reescrituras. A veces, el salto llega por un detalle que parecía menor: dónde “caen” las interrupciones. Y es precisamente ahí donde ingenieros de Intel están empujando un cambio en el kernel Linux para mejorar el rendimiento de almacenamiento NVMe en servidores modernos con alto conteo de núcleos. El problema aparece cuando el número de IRQs de NVMe es menor que el número de CPUs, algo relativamente habitual en plataformas actuales. En ese escenario, varios núcleos terminan compartiendo la misma interrupción, y si la afinidad de esa IRQ no está bien alineada con la topología real del procesador, el coste se paga en latencia y rendimiento. Intel lo resume con una

El “apagón informático” deja de ser una anécdota: la pyme tech española lo ve ya como un riesgo de continuidad

Durante años, el concepto de “apagón informático” se asociaba a escenarios extremos: fallos masivos poco probables, incidentes que “les pasan a otros” o problemas puntuales que se resuelven con un reinicio y paciencia. Ese marco mental está cambiando. Según el Barómetro Tech 2025: radiografía de la pyme tecnológica española, elaborado por Hiscox, el 81 % de las pymes tecnológicas en España considera que un apagón informático constituye una seria amenaza para su negocio. En otras palabras: el corte de servicios digitales —sea por caída de infraestructura, interrupciones en la nube o incidentes en terceros— entra en el mismo tablero que los riesgos clásicos de seguridad. La lectura es relevante para un medio tecnológico porque sitúa la resiliencia operativa en el

Jensen Huang y el “Mercedes” que salió caro: NVIDIA pone rostro humano al mayor despliegue de infraestructura de la era IA

En un momento en el que la Inteligencia Artificial se ha convertido en el centro gravitacional de la tecnología —y, cada vez más, de la geopolítica industrial—, Jensen Huang ha optado por un registro poco habitual en un CEO de una compañía de su tamaño: el de la anécdota personal con moraleja financiera. En el Foro Económico Mundial de Davos, el consejero delegado de NVIDIA recordó cómo, tras la salida a bolsa, vendió acciones cuando la empresa estaba valorada en 300 millones de dólares para comprar a sus padres un Mercedes S-Class. Hoy admite que se arrepiente del timing. La historia, contada con naturalidad, funciona como metáfora de algo mayor: el vértigo de una revolución tecnológica que ha comprimido décadas

Infraestructura de TI ante el reto de la IA: solo el 38 % de los responsables de I&O cree que su entorno está listo

La conversación sobre Inteligencia Artificial lleva meses instalada en los comités de dirección, pero hay una realidad menos glamourosa que empieza a pesar más que los “demos”: la infraestructura. Un estudio reciente de Netskope retrata un escenario incómodo para muchas organizaciones: solo el 38 % de los líderes de Infraestructura y Operaciones (I&O) considera que su infraestructura está plenamente equipada para absorber las nuevas exigencias que llegan con la IA, mientras que apenas el 18 % afirma tener completa confianza en contar con el equipo y el presupuesto necesarios para cumplir con expectativas futuras de rendimiento, resiliencia y seguridad. Ese desajuste, más que una cifra, describe una tensión creciente: la dirección exige velocidad, visibilidad y resultados; los equipos que sostienen

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×