Día: octubre 30, 2024

Microsoft quiere reinventar el cableado de los centros de datos con MicroLED

Microsoft cree que uno de los próximos grandes cuellos de botella de la inteligencia artificial no estará solo en los chips, sino en algo mucho menos visible: la forma en que los servidores se conectan entre sí dentro del centro de datos. Por eso ha presentado un nuevo sistema de interconexión basado en MicroLEDs e imaging fiber que, según la compañía, podría empezar a comercializarse con socios industriales a finales de 2027. La propuesta llega en un momento en que el crecimiento de la IA y del cloud está presionando al límite a las tecnologías de red actuales. Microsoft sostiene que las interconexiones hoy dominantes dentro del centro de datos obligan a elegir entre dos soluciones imperfectas: el cobre, que

El mercado del back-end de chips crece con el empaquetado avanzado

El negocio del equipamiento semiconductor de back-end empieza a ocupar un lugar mucho más visible en la industria global del chip. Un informe comercial de The Business Research Company sitúa este mercado por encima de los 34.000 millones de dólares en 2030, con Asia-Pacífico como región dominante y China como principal país por volumen previsto. Son cifras que conviene leer con cautela, porque proceden de estudios de mercado privados y no de estadísticas oficiales auditadas, pero reflejan una tendencia que sí encaja con el momento del sector: el ensamblado, el empaquetado y el test final se han convertido en una pieza crítica para sacar adelante chips cada vez más complejos. La razón de fondo no está solo en fabricar más,

Murata prepara una subida de precios que puede encarecer la electrónica en plena fiebre de la IA

La cadena de suministro tecnológica suma una nueva señal de tensión. Tras meses de presión en memorias, chips lógicos y componentes vinculados a infraestructura de inteligencia artificial, ahora son los componentes pasivos los que empiezan a mover ficha. Según una información publicada por TrendForce a partir de un reporte de Liberty Times, Murata Manufacturing aplicará a partir del 1 de abril de 2026 un ajuste de precios en varias familias de componentes clave, en un movimiento que puede acabar trasladando más costes a fabricantes de electrónica, automoción y equipamiento industrial. No es un detalle menor. Murata no es un actor periférico del mercado, sino uno de los nombres más importantes del ecosistema global de pasivos y un proveedor muy presente

Akamai alerta: las APIs ya son la principal superficie de ataque en la era de la IA

La adopción acelerada de la inteligencia artificial está abriendo una nueva grieta de seguridad en las empresas: las APIs. Esa es la principal conclusión del nuevo informe 2026 Apps, APIs, and DDoS State of the Internet de Akamai, que sostiene que las organizaciones están concentrando cada vez más inversión en automatización e IA justo sobre la capa que hoy está recibiendo más presión ofensiva. Según la compañía, asegurar la IA pasa ya, de forma directa, por asegurar las APIs. El aviso no se apoya en una intuición vaga. Akamai afirma que los atacantes están industrializando sus métodos y mezclando abuso de APIs, ataques a aplicaciones web y DDoS de capa 7 en campañas coordinadas, repetibles y relativamente baratas. El objetivo

Meta acelera MTIA y se suma a la carrera por chips propios para inferencia

Meta ha decidido pisar el acelerador con su familia de aceleradores propios MTIA y, con ello, reforzar una tendencia que ya se ve con claridad entre los grandes hiperescalares: depender menos de una sola arquitectura GPU para la inferencia de IA. En una entrada técnica publicada por la compañía, Meta detalla cuatro nuevas generaciones de su línea Meta Training and Inference Accelerator —MTIA 300, 400, 450 y 500— con despliegues ya iniciados o previstos entre 2026 y 2027, y con un mensaje central muy claro: la inferencia de IA necesita chips optimizados de forma distinta a los diseñados principalmente para el entrenamiento. La tesis de Meta encaja con un movimiento más amplio del sector. Google ya presentó Ironwood como su

Templus acelera su expansión y apunta a 26 centros de datos en 2026

Templus quiere crecer más y más deprisa. La compañía española de centros de datos, que en menos de dos años ha levantado una red con presencia internacional, ha decidido retirar su límite de inversión para seguir comprando activos y ampliar su huella en Europa. El objetivo inmediato es ambicioso: cerrar 2026 con 26 centros de datos y 80 MW de potencia gestionada, con especial foco en mercados como Francia e Italia, según desvela su consejero delegado, Ignacio T. Velilla Rincón, en una entrevista publicada hoy por Expansión y difundida por la propia empresa. La lectura de fondo es clara. El auge del negocio del dato, la inteligencia artificial y la necesidad de capacidad cerca del cliente están acelerando el movimiento

Microsoft quiere reinventar el cableado de los centros de datos con MicroLED

Microsoft cree que uno de los próximos grandes cuellos de botella de la inteligencia artificial no estará solo en los chips, sino en algo mucho menos visible: la forma en que los servidores se conectan entre sí dentro del centro de datos. Por eso ha presentado un nuevo sistema de interconexión basado en MicroLEDs e imaging fiber que, según la compañía, podría empezar a comercializarse con socios industriales a finales de 2027. La propuesta llega en un momento en que el crecimiento de la IA y del cloud está presionando al límite a las tecnologías de red actuales. Microsoft sostiene que las interconexiones hoy dominantes dentro del centro de datos obligan a elegir entre dos soluciones imperfectas: el cobre, que

El mercado del back-end de chips crece con el empaquetado avanzado

El negocio del equipamiento semiconductor de back-end empieza a ocupar un lugar mucho más visible en la industria global del chip. Un informe comercial de The Business Research Company sitúa este mercado por encima de los 34.000 millones de dólares en 2030, con Asia-Pacífico como región dominante y China como principal país por volumen previsto. Son cifras que conviene leer con cautela, porque proceden de estudios de mercado privados y no de estadísticas oficiales auditadas, pero reflejan una tendencia que sí encaja con el momento del sector: el ensamblado, el empaquetado y el test final se han convertido en una pieza crítica para sacar adelante chips cada vez más complejos. La razón de fondo no está solo en fabricar más,

Murata prepara una subida de precios que puede encarecer la electrónica en plena fiebre de la IA

La cadena de suministro tecnológica suma una nueva señal de tensión. Tras meses de presión en memorias, chips lógicos y componentes vinculados a infraestructura de inteligencia artificial, ahora son los componentes pasivos los que empiezan a mover ficha. Según una información publicada por TrendForce a partir de un reporte de Liberty Times, Murata Manufacturing aplicará a partir del 1 de abril de 2026 un ajuste de precios en varias familias de componentes clave, en un movimiento que puede acabar trasladando más costes a fabricantes de electrónica, automoción y equipamiento industrial. No es un detalle menor. Murata no es un actor periférico del mercado, sino uno de los nombres más importantes del ecosistema global de pasivos y un proveedor muy presente

Akamai alerta: las APIs ya son la principal superficie de ataque en la era de la IA

La adopción acelerada de la inteligencia artificial está abriendo una nueva grieta de seguridad en las empresas: las APIs. Esa es la principal conclusión del nuevo informe 2026 Apps, APIs, and DDoS State of the Internet de Akamai, que sostiene que las organizaciones están concentrando cada vez más inversión en automatización e IA justo sobre la capa que hoy está recibiendo más presión ofensiva. Según la compañía, asegurar la IA pasa ya, de forma directa, por asegurar las APIs. El aviso no se apoya en una intuición vaga. Akamai afirma que los atacantes están industrializando sus métodos y mezclando abuso de APIs, ataques a aplicaciones web y DDoS de capa 7 en campañas coordinadas, repetibles y relativamente baratas. El objetivo

Meta acelera MTIA y se suma a la carrera por chips propios para inferencia

Meta ha decidido pisar el acelerador con su familia de aceleradores propios MTIA y, con ello, reforzar una tendencia que ya se ve con claridad entre los grandes hiperescalares: depender menos de una sola arquitectura GPU para la inferencia de IA. En una entrada técnica publicada por la compañía, Meta detalla cuatro nuevas generaciones de su línea Meta Training and Inference Accelerator —MTIA 300, 400, 450 y 500— con despliegues ya iniciados o previstos entre 2026 y 2027, y con un mensaje central muy claro: la inferencia de IA necesita chips optimizados de forma distinta a los diseñados principalmente para el entrenamiento. La tesis de Meta encaja con un movimiento más amplio del sector. Google ya presentó Ironwood como su

Templus acelera su expansión y apunta a 26 centros de datos en 2026

Templus quiere crecer más y más deprisa. La compañía española de centros de datos, que en menos de dos años ha levantado una red con presencia internacional, ha decidido retirar su límite de inversión para seguir comprando activos y ampliar su huella en Europa. El objetivo inmediato es ambicioso: cerrar 2026 con 26 centros de datos y 80 MW de potencia gestionada, con especial foco en mercados como Francia e Italia, según desvela su consejero delegado, Ignacio T. Velilla Rincón, en una entrevista publicada hoy por Expansión y difundida por la propia empresa. La lectura de fondo es clara. El auge del negocio del dato, la inteligencia artificial y la necesidad de capacidad cerca del cliente están acelerando el movimiento

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×