Día: mayo 15, 2024

TurboQuant: Google apunta a la memoria que frena a los grandes modelos

La industria de la inteligencia artificial lleva meses hablando de modelos más grandes, más contexto y más potencia de cálculo. Pero en la práctica, uno de los problemas más serios no está solo en entrenar esos sistemas, sino en mantenerlos funcionando de forma eficiente cuando ya están en producción. Google Research ha puesto ahora el foco en ese punto con TurboQuant, una técnica de compresión presentada el 24 de marzo de 2026 con la que busca reducir uno de los grandes cuellos de botella de los LLM: la memoria que consume la caché clave-valor, conocida como KV cache. La propuesta llega en un momento en el que la presión sobre la infraestructura es cada vez mayor. Cuanto más largo es

Twenty quiere ser la alternativa open source a Salesforce y ya presume de CRM moderno, modular y autoalojable

El mercado del CRM lleva años dominado por plataformas propietarias, costosas y difíciles de abandonar una vez que los datos y procesos del equipo quedan atrapados dentro de ellas. En ese contexto, Twenty se está posicionando como una de las propuestas open source más ambiciosas del momento, con un mensaje muy directo: construir una alternativa moderna a Salesforce, apoyada por la comunidad y pensada para equipos que quieren más control sobre su herramienta y sobre sus datos. Así lo define tanto su repositorio oficial en GitHub como su web corporativa. El proyecto se presenta como “The #1 Open-Source CRM” y combina una interfaz inspirada en herramientas modernas como Notion, Airtable o Linear con una base tecnológica bastante seria: TypeScript, NestJS,

Samsung mueve el sensor térmico al cableado del chip y busca ganar espacio y eficiencia en 2 nm

Samsung Foundry ha presentado en ISSCC 2026 una nueva IP de sensor de temperatura pensada para uno de los grandes problemas de los nodos más avanzados: controlar mejor el calor sin seguir sacrificando área útil dentro del chip. La base de la propuesta es desplazar el sensor desde la zona FEoL —donde residen los transistores— hacia la capa superior de interconexiones BEoL, usando una resistencia metálica de bajo coeficiente térmico. En el programa oficial del congreso, Samsung describe esta solución como un “fully stacked RC-based temperature sensor” para proceso 2nm Gate-All-Around, con 625 μm², funcionamiento a 0,6 V y un enfoque orientado a mejorar la relación entre precisión, consumo y área. La importancia de este movimiento está en el sitio

Mphasis y Flagstar completan la primera fase de una gran modernización tecnológica bancaria en EE. UU.

Mphasis y Flagstar Bank han anunciado la finalización de la primera fase de un programa de modernización tecnológica que, en apenas un año, ha permitido al banco estadounidense desplegar una nueva base de infraestructura de centro de datos y nube para sostener su transformación digital. Según la documentación oficial remitida por Mphasis a los mercados, el proyecto ha servido para crear una plataforma tecnológica escalable orientada a reforzar la resiliencia operativa, mejorar el rendimiento y preparar a Flagstar para su siguiente etapa de crecimiento como banco regional en Estados Unidos. El punto más llamativo del proyecto es la consolidación de seis centros de datos heredados en dos nuevos centros de datos de nueva generación, algo que Mphasis asegura haber completado

La memoria amenaza con devorar el gasto cloud de los hiperescalares

La siguiente gran tensión de la inteligencia artificial no parece estar solo en las GPU. Cada vez más analistas y fabricantes están poniendo el foco en la memoria, hasta el punto de que ya empieza a hablarse de una nueva fase del ciclo: la de una infraestructura de IA donde DRAM, LPDDR5 y HBM pesan cada vez más en el coste total de los sistemas y en el capex de los grandes operadores cloud. La tesis más agresiva la ha formulado SemiAnalysis, que estima que la memoria pasará de representar alrededor del 8 % del gasto total de los hiperescalares en 2023 y 2024 a cerca del 30 % en 2026, con más presión aún en 2027. Es una estimación

La carrera de los centros de datos para IA choca con otro muro: transformadores, baterías y red eléctrica

Estados Unidos está descubriendo que levantar centros de datos para Inteligencia Artificial no depende solo de comprar más GPU. Según Bloomberg, casi la mitad de los proyectos de centros de datos previstos para 2026 en el país corren riesgo de retrasarse o cancelarse por la escasez de equipos eléctricos clave, como transformadores, celdas de media tensión y baterías, muchos de ellos fabricados en China o muy condicionados por cadenas de suministro globales en las que China sigue pesando de forma decisiva. La propia Bloomberg sitúa el problema en los componentes de infraestructura eléctrica, no en la falta de capital ni en la demanda de chips. Ese matiz importa. No es exactamente que “ya se haya cancelado la mitad” de los

TurboQuant: Google apunta a la memoria que frena a los grandes modelos

La industria de la inteligencia artificial lleva meses hablando de modelos más grandes, más contexto y más potencia de cálculo. Pero en la práctica, uno de los problemas más serios no está solo en entrenar esos sistemas, sino en mantenerlos funcionando de forma eficiente cuando ya están en producción. Google Research ha puesto ahora el foco en ese punto con TurboQuant, una técnica de compresión presentada el 24 de marzo de 2026 con la que busca reducir uno de los grandes cuellos de botella de los LLM: la memoria que consume la caché clave-valor, conocida como KV cache. La propuesta llega en un momento en el que la presión sobre la infraestructura es cada vez mayor. Cuanto más largo es

Twenty quiere ser la alternativa open source a Salesforce y ya presume de CRM moderno, modular y autoalojable

El mercado del CRM lleva años dominado por plataformas propietarias, costosas y difíciles de abandonar una vez que los datos y procesos del equipo quedan atrapados dentro de ellas. En ese contexto, Twenty se está posicionando como una de las propuestas open source más ambiciosas del momento, con un mensaje muy directo: construir una alternativa moderna a Salesforce, apoyada por la comunidad y pensada para equipos que quieren más control sobre su herramienta y sobre sus datos. Así lo define tanto su repositorio oficial en GitHub como su web corporativa. El proyecto se presenta como “The #1 Open-Source CRM” y combina una interfaz inspirada en herramientas modernas como Notion, Airtable o Linear con una base tecnológica bastante seria: TypeScript, NestJS,

Samsung mueve el sensor térmico al cableado del chip y busca ganar espacio y eficiencia en 2 nm

Samsung Foundry ha presentado en ISSCC 2026 una nueva IP de sensor de temperatura pensada para uno de los grandes problemas de los nodos más avanzados: controlar mejor el calor sin seguir sacrificando área útil dentro del chip. La base de la propuesta es desplazar el sensor desde la zona FEoL —donde residen los transistores— hacia la capa superior de interconexiones BEoL, usando una resistencia metálica de bajo coeficiente térmico. En el programa oficial del congreso, Samsung describe esta solución como un “fully stacked RC-based temperature sensor” para proceso 2nm Gate-All-Around, con 625 μm², funcionamiento a 0,6 V y un enfoque orientado a mejorar la relación entre precisión, consumo y área. La importancia de este movimiento está en el sitio

Mphasis y Flagstar completan la primera fase de una gran modernización tecnológica bancaria en EE. UU.

Mphasis y Flagstar Bank han anunciado la finalización de la primera fase de un programa de modernización tecnológica que, en apenas un año, ha permitido al banco estadounidense desplegar una nueva base de infraestructura de centro de datos y nube para sostener su transformación digital. Según la documentación oficial remitida por Mphasis a los mercados, el proyecto ha servido para crear una plataforma tecnológica escalable orientada a reforzar la resiliencia operativa, mejorar el rendimiento y preparar a Flagstar para su siguiente etapa de crecimiento como banco regional en Estados Unidos. El punto más llamativo del proyecto es la consolidación de seis centros de datos heredados en dos nuevos centros de datos de nueva generación, algo que Mphasis asegura haber completado

La memoria amenaza con devorar el gasto cloud de los hiperescalares

La siguiente gran tensión de la inteligencia artificial no parece estar solo en las GPU. Cada vez más analistas y fabricantes están poniendo el foco en la memoria, hasta el punto de que ya empieza a hablarse de una nueva fase del ciclo: la de una infraestructura de IA donde DRAM, LPDDR5 y HBM pesan cada vez más en el coste total de los sistemas y en el capex de los grandes operadores cloud. La tesis más agresiva la ha formulado SemiAnalysis, que estima que la memoria pasará de representar alrededor del 8 % del gasto total de los hiperescalares en 2023 y 2024 a cerca del 30 % en 2026, con más presión aún en 2027. Es una estimación

La carrera de los centros de datos para IA choca con otro muro: transformadores, baterías y red eléctrica

Estados Unidos está descubriendo que levantar centros de datos para Inteligencia Artificial no depende solo de comprar más GPU. Según Bloomberg, casi la mitad de los proyectos de centros de datos previstos para 2026 en el país corren riesgo de retrasarse o cancelarse por la escasez de equipos eléctricos clave, como transformadores, celdas de media tensión y baterías, muchos de ellos fabricados en China o muy condicionados por cadenas de suministro globales en las que China sigue pesando de forma decisiva. La propia Bloomberg sitúa el problema en los componentes de infraestructura eléctrica, no en la falta de capital ni en la demanda de chips. Ese matiz importa. No es exactamente que “ya se haya cancelado la mitad” de los

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×