Etiqueta: Libelium

Slackbot se reinventa como agente de IA personal dentro de Slack

Buscar una decisión perdida entre canales, documentos, reuniones y mensajes directos se ha convertido en una de las tareas más ingratas del trabajo digital. Slack quiere atacar precisamente ese problema con la nueva versión de Slackbot, que deja atrás su papel clásico como asistente de avisos y automatizaciones sencillas para convertirse en un agente de IA personal integrado en la propia plataforma. La compañía presentó esta nueva etapa de Slackbot como una herramienta capaz de responder preguntas, resumir actividad, preparar reuniones, generar borradores y analizar archivos apoyándose en el contexto real del usuario dentro de Slack. La apuesta de Slack no llega en un vacío. En pleno auge de los copilotos corporativos, muchas empresas están descubriendo que la utilidad real

TurboQuant: Google apunta a la memoria que frena a los grandes modelos

La industria de la inteligencia artificial lleva meses hablando de modelos más grandes, más contexto y más potencia de cálculo. Pero en la práctica, uno de los problemas más serios no está solo en entrenar esos sistemas, sino en mantenerlos funcionando de forma eficiente cuando ya están en producción. Google Research ha puesto ahora el foco en ese punto con TurboQuant, una técnica de compresión presentada el 24 de marzo de 2026 con la que busca reducir uno de los grandes cuellos de botella de los LLM: la memoria que consume la caché clave-valor, conocida como KV cache. La propuesta llega en un momento en el que la presión sobre la infraestructura es cada vez mayor. Cuanto más largo es

Twenty quiere ser la alternativa open source a Salesforce y ya presume de CRM moderno, modular y autoalojable

El mercado del CRM lleva años dominado por plataformas propietarias, costosas y difíciles de abandonar una vez que los datos y procesos del equipo quedan atrapados dentro de ellas. En ese contexto, Twenty se está posicionando como una de las propuestas open source más ambiciosas del momento, con un mensaje muy directo: construir una alternativa moderna a Salesforce, apoyada por la comunidad y pensada para equipos que quieren más control sobre su herramienta y sobre sus datos. Así lo define tanto su repositorio oficial en GitHub como su web corporativa. El proyecto se presenta como “The #1 Open-Source CRM” y combina una interfaz inspirada en herramientas modernas como Notion, Airtable o Linear con una base tecnológica bastante seria: TypeScript, NestJS,

Samsung mueve el sensor térmico al cableado del chip y busca ganar espacio y eficiencia en 2 nm

Samsung Foundry ha presentado en ISSCC 2026 una nueva IP de sensor de temperatura pensada para uno de los grandes problemas de los nodos más avanzados: controlar mejor el calor sin seguir sacrificando área útil dentro del chip. La base de la propuesta es desplazar el sensor desde la zona FEoL —donde residen los transistores— hacia la capa superior de interconexiones BEoL, usando una resistencia metálica de bajo coeficiente térmico. En el programa oficial del congreso, Samsung describe esta solución como un “fully stacked RC-based temperature sensor” para proceso 2nm Gate-All-Around, con 625 μm², funcionamiento a 0,6 V y un enfoque orientado a mejorar la relación entre precisión, consumo y área. La importancia de este movimiento está en el sitio

Mphasis y Flagstar completan la primera fase de una gran modernización tecnológica bancaria en EE. UU.

Mphasis y Flagstar Bank han anunciado la finalización de la primera fase de un programa de modernización tecnológica que, en apenas un año, ha permitido al banco estadounidense desplegar una nueva base de infraestructura de centro de datos y nube para sostener su transformación digital. Según la documentación oficial remitida por Mphasis a los mercados, el proyecto ha servido para crear una plataforma tecnológica escalable orientada a reforzar la resiliencia operativa, mejorar el rendimiento y preparar a Flagstar para su siguiente etapa de crecimiento como banco regional en Estados Unidos. El punto más llamativo del proyecto es la consolidación de seis centros de datos heredados en dos nuevos centros de datos de nueva generación, algo que Mphasis asegura haber completado

La memoria amenaza con devorar el gasto cloud de los hiperescalares

La siguiente gran tensión de la inteligencia artificial no parece estar solo en las GPU. Cada vez más analistas y fabricantes están poniendo el foco en la memoria, hasta el punto de que ya empieza a hablarse de una nueva fase del ciclo: la de una infraestructura de IA donde DRAM, LPDDR5 y HBM pesan cada vez más en el coste total de los sistemas y en el capex de los grandes operadores cloud. La tesis más agresiva la ha formulado SemiAnalysis, que estima que la memoria pasará de representar alrededor del 8 % del gasto total de los hiperescalares en 2023 y 2024 a cerca del 30 % en 2026, con más presión aún en 2027. Es una estimación

Slackbot se reinventa como agente de IA personal dentro de Slack

Buscar una decisión perdida entre canales, documentos, reuniones y mensajes directos se ha convertido en una de las tareas más ingratas del trabajo digital. Slack quiere atacar precisamente ese problema con la nueva versión de Slackbot, que deja atrás su papel clásico como asistente de avisos y automatizaciones sencillas para convertirse en un agente de IA personal integrado en la propia plataforma. La compañía presentó esta nueva etapa de Slackbot como una herramienta capaz de responder preguntas, resumir actividad, preparar reuniones, generar borradores y analizar archivos apoyándose en el contexto real del usuario dentro de Slack. La apuesta de Slack no llega en un vacío. En pleno auge de los copilotos corporativos, muchas empresas están descubriendo que la utilidad real

TurboQuant: Google apunta a la memoria que frena a los grandes modelos

La industria de la inteligencia artificial lleva meses hablando de modelos más grandes, más contexto y más potencia de cálculo. Pero en la práctica, uno de los problemas más serios no está solo en entrenar esos sistemas, sino en mantenerlos funcionando de forma eficiente cuando ya están en producción. Google Research ha puesto ahora el foco en ese punto con TurboQuant, una técnica de compresión presentada el 24 de marzo de 2026 con la que busca reducir uno de los grandes cuellos de botella de los LLM: la memoria que consume la caché clave-valor, conocida como KV cache. La propuesta llega en un momento en el que la presión sobre la infraestructura es cada vez mayor. Cuanto más largo es

Twenty quiere ser la alternativa open source a Salesforce y ya presume de CRM moderno, modular y autoalojable

El mercado del CRM lleva años dominado por plataformas propietarias, costosas y difíciles de abandonar una vez que los datos y procesos del equipo quedan atrapados dentro de ellas. En ese contexto, Twenty se está posicionando como una de las propuestas open source más ambiciosas del momento, con un mensaje muy directo: construir una alternativa moderna a Salesforce, apoyada por la comunidad y pensada para equipos que quieren más control sobre su herramienta y sobre sus datos. Así lo define tanto su repositorio oficial en GitHub como su web corporativa. El proyecto se presenta como “The #1 Open-Source CRM” y combina una interfaz inspirada en herramientas modernas como Notion, Airtable o Linear con una base tecnológica bastante seria: TypeScript, NestJS,

Samsung mueve el sensor térmico al cableado del chip y busca ganar espacio y eficiencia en 2 nm

Samsung Foundry ha presentado en ISSCC 2026 una nueva IP de sensor de temperatura pensada para uno de los grandes problemas de los nodos más avanzados: controlar mejor el calor sin seguir sacrificando área útil dentro del chip. La base de la propuesta es desplazar el sensor desde la zona FEoL —donde residen los transistores— hacia la capa superior de interconexiones BEoL, usando una resistencia metálica de bajo coeficiente térmico. En el programa oficial del congreso, Samsung describe esta solución como un “fully stacked RC-based temperature sensor” para proceso 2nm Gate-All-Around, con 625 μm², funcionamiento a 0,6 V y un enfoque orientado a mejorar la relación entre precisión, consumo y área. La importancia de este movimiento está en el sitio

Mphasis y Flagstar completan la primera fase de una gran modernización tecnológica bancaria en EE. UU.

Mphasis y Flagstar Bank han anunciado la finalización de la primera fase de un programa de modernización tecnológica que, en apenas un año, ha permitido al banco estadounidense desplegar una nueva base de infraestructura de centro de datos y nube para sostener su transformación digital. Según la documentación oficial remitida por Mphasis a los mercados, el proyecto ha servido para crear una plataforma tecnológica escalable orientada a reforzar la resiliencia operativa, mejorar el rendimiento y preparar a Flagstar para su siguiente etapa de crecimiento como banco regional en Estados Unidos. El punto más llamativo del proyecto es la consolidación de seis centros de datos heredados en dos nuevos centros de datos de nueva generación, algo que Mphasis asegura haber completado

La memoria amenaza con devorar el gasto cloud de los hiperescalares

La siguiente gran tensión de la inteligencia artificial no parece estar solo en las GPU. Cada vez más analistas y fabricantes están poniendo el foco en la memoria, hasta el punto de que ya empieza a hablarse de una nueva fase del ciclo: la de una infraestructura de IA donde DRAM, LPDDR5 y HBM pesan cada vez más en el coste total de los sistemas y en el capex de los grandes operadores cloud. La tesis más agresiva la ha formulado SemiAnalysis, que estima que la memoria pasará de representar alrededor del 8 % del gasto total de los hiperescalares en 2023 y 2024 a cerca del 30 % en 2026, con más presión aún en 2027. Es una estimación

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×