Claude-Mem: el “cerebro extendido” que le da memoria de largo plazo a Claude Code

En casi cualquier flujo de trabajo con asistentes de IA para programar se repite el mismo patrón: se abre una sesión, se le explica al modelo el contexto, se avanza con código, se corrigen bugs… y, cuando se acaba la sesión o se agota la ventana de contexto, todo ese conocimiento se esfuma. En la siguiente sesión, vuelta a empezar: “¿te acuerdas de…?”. No, no se acuerda.

Claude-Mem nace precisamente para atacar ese problema estructural. Es un plugin para Claude Code que actúa como sistema de memoria persistente y comprimida: captura lo que pasa en tus sesiones de desarrollo, destila las ideas importantes y las deja disponibles para que el asistente pueda reutilizarlas más adelante, incluso días después, sin que tengas que reexplicarlo todo.

No es solo “guardar el historial de chat”, sino construir un verdadero sistema de memoria de trabajo y archivo alrededor del asistente.


El cuello de botella: el contexto no escala como el proyecto

Los modelos de lenguaje funcionan con una ventana de contexto limitada. Cada vez que ejecutas herramientas, abres archivos, generas código o pides explicaciones, se acumulan tokens. Llega un punto en que:

  • el modelo empieza a olvidar decisiones tomadas 30 o 40 interacciones atrás,
  • reaparecen dudas ya resueltas (“¿cómo quedó al final la capa de autenticación?”),
  • y el desarrollador termina limpiando el contexto para “empezar fresco”, perdiendo toda la historia de la sesión.

El problema de fondo no es que el modelo “sea tonto”, sino que se le obliga a mantener todo en RAM, como si nunca pudiera bajar nada a disco. Claude-Mem introduce justo esa capa de “disco”: una memoria estructurada que vive fuera del contexto, y a la que el asistente puede recurrir cuando lo necesita.


Qué es Claude-Mem y cómo se engancha a Claude Code

Claude-Mem se instala directamente desde el marketplace de plugins de Claude Code. Una vez añadido, empieza a trabajar de forma automática, sin que tengas que ejecutar comandos especiales en cada sesión.

Bajo el capó, su arquitectura se apoya en varios bloques:

  • Hooks de ciclo de vida: scripts que se ejecutan en momentos clave de la sesión (al empezar, cuando envías un prompt, después de usar herramientas, al parar y al finalizar).
  • Worker service: un servicio HTTP local, gestionado con PM2, que se encarga de procesar los datos, generar resúmenes y servir una UI web en tiempo real en localhost:37777.
  • Base de datos SQLite: donde se guardan sesiones, observaciones y resúmenes, con índices de búsqueda de texto completo (FTS5).
  • Vector DB (Chroma): para hacer búsqueda semántica combinada con búsqueda por palabras.

El flujo típico es:

  1. Inicio de sesión: Claude-Mem inyecta en el contexto algunas observaciones relevantes de sesiones anteriores sobre ese mismo proyecto.
  2. Durante el trabajo: registra qué herramientas se usan, qué archivos se tocan, qué cambios se hacen y qué decisiones se toman.
  3. Procesamiento en background: un worker llama a Claude, genera resúmenes semánticos de lo ocurrido y los clasifica (decisión, bugfix, feature, refactor, descubrimiento…).
  4. Fin de sesión: se guarda un resumen de alto nivel, listo para ser reutilizado en la próxima vez que abras el proyecto.

Desde el punto de vista del desarrollador, el cambio es sutil pero importante: Claude deja de empezar “en blanco” cada día.


mem-search: preguntar al histórico del proyecto como a un compañero de equipo

La pieza más visible para el usuario es la skill de búsqueda llamada mem-search. En lugar de ser otro comando más, se integra de forma natural en las conversaciones.

Ejemplos de preguntas que dispara mem-search:

  • “¿Cómo implementamos la autenticación en este proyecto?”
  • “¿Qué bugs resolvimos en la última sesión?”
  • “¿Qué cambios se hicieron en worker-service.ts?”
  • “Enséñame el trabajo reciente en este repo.”

Cuando detecta una consulta de ese estilo, Claude-Mem:

  1. Busca en las observaciones (eventos finos: cambios, decisiones, bugs).
  2. Consulta los resúmenes de sesión (visión más macro).
  3. Recorre los prompts originales del usuario si hace falta.
  4. Aplica filtros por tipo (decisión, bugfix, feature, refactor, discovery…) o por archivo.
  5. Devuelve al modelo un set de fragmentos comprimidos relevantes, listo para entrar en el contexto.

La filosofía detrás de esto es la divulgación progresiva:

  • primero un índice ligero de lo que existe (qué se decidió, cuándo y a qué archivo afectó);
  • solo si hace falta, se trae más detalle (narrativa completa, fragmentos de código, etc.).

Así se evita gastar miles de tokens trayendo todo el pasado a cada respuesta.


Endless Mode: sesiones casi infinitas gracias a la compresión en tiempo real

Además del modo estándar, Claude-Mem incluye un canal beta con una función especialmente interesante para perfiles más frikis: Endless Mode.

El problema de partida: en sesiones intensivas de coding asistido, cada llamada de herramienta añade entre 1.000 y 10.000 tokens al contexto. Si cada nueva respuesta vuelve a incluir todo lo anterior re-sintetizado, el coste crece de forma casi cuadrática. Al cabo de 40–50 usos de herramientas, el contexto está al límite.

Endless Mode propone otro enfoque:

  • cada salida de herramienta se comprime en una observación de ~500 tokens,
  • el transcript se va “rescribiendo” en tiempo real, sustituyendo bloques largos por su versión destilada,
  • y se separa claramente entre Working Memory (observaciones activas en el contexto) y Archive Memory (salidas completas guardadas en disco para recall puntual).

En números aproximados, eso se traduce en:

  • hasta un 95 % de reducción de tokens en contexto,
  • unas 20 veces más usos de herramientas antes de agotar la ventana,
  • y una complejidad que pasa de algo cercano a O(N²) a algo mucho más lineal.

La contrapartida es que Endless Mode introduce más latencia (del orden de 60–90 segundos por herramienta mientras se generan observaciones comprimidas) y, a día de hoy, se considera experimental. Es una función pensada para quienes tienen sesiones largas y quieren explorar hasta dónde puede estirarse el contexto sin perder trazabilidad.


UI web: ver la memoria en streaming

Otro detalle interesante para medios tech: Claude-Mem no es solo backend y hooks; ofrece una web UI en tiempo real.

Desde http://localhost:37777 se puede:

  • ver el flujo de memoria conforme se va generando,
  • filtrar por proyecto, tipo de evento o timeline,
  • consultar observaciones individuales con su coste en tokens,
  • y cambiar entre canal estable y beta (por ejemplo, para activar Endless Mode) sin tocar Git ni la línea de comandos.

Es, básicamente, un visor de “lo que Claude está aprendiendo sobre tu proyecto” en vivo.


Privacidad y datos: todo en local, pero con responsabilidad

En un contexto donde muchos equipos están preocupados por lo que sale de sus repos, el enfoque de Claude-Mem sobre los datos es relevante:

  • Todo se guarda en local (por defecto en ~/.claude-mem/), usando SQLite y ficheros auxiliares.
  • No añade nuevos destinos externos: se apoya en las mismas APIs que ya usa Claude Code para hablar con el modelo.
  • Ofrece un sistema de etiquetas privadas (<private>) para marcar contenido que no quieres que se persista en la base de datos de memoria.
  • Y añade etiquetas internas para evitar que el propio contexto de memoria se recicle y se vuelva a almacenar de forma recursiva.

Dicho esto, no deja de ser un sistema que almacena:

  • prompts,
  • observaciones sobre código,
  • decisiones tomadas,
  • y resúmenes de sesiones.

Así que la seguridad y la política de retención de esa base de datos siguen siendo responsabilidad del equipo: quién tiene acceso, cómo se hacen las copias de seguridad, cuándo se purga, etc.


Licencia y adopción en equipos: AGPL y código auditable

Claude-Mem se publica bajo licencia AGPL-3.0, una elección que no es casual:

  • permite usar, modificar y desplegar el software libremente,
  • pero obliga a publicar el código fuente de cualquier versión modificada que se ofrezca como servicio accesible en red,
  • y fuerza a que las obras derivadas mantengan la misma licencia.

Para empresas y equipos tech esto tiene dos caras:

  • por un lado, da garantías: el código es auditable, se puede revisar qué se guarda y cómo se procesa, se puede adaptar a flujos propios;
  • por otro, impone condiciones si se quiere integrar Claude-Mem en plataformas internas que se expongan como servicio a terceros.

En entornos donde ya se trabaja con herramientas open source AGPL (por ejemplo, software de colaboración o devtools internos), la adopción resulta más natural. Donde la política es más conservadora, requerirá una evaluación legal previa.


Casos de uso claros en el día a día de un equipo tech

Más allá de la teoría, las situaciones donde Claude-Mem aporta valor son bastante tangibles:

  • Refactorings largos: cuando se trabaja varios días en una refactorización compleja, la memoria persistente ayuda a que el asistente recuerde las decisiones de diseño tomadas al principio, en lugar de reabrir debates.
  • Rotación en el equipo: si distintas personas alternan con el mismo proyecto, Claude puede servir de “historiador” de lo que se ha ido haciendo, sin depender tanto de que todo esté perfectísimamente documentado.
  • Mantenimiento de legacy: en código legado lleno de peculiaridades, la capacidad de recordar por qué se tomó una decisión concreta puede ahorrar horas de exploración cada vez.
  • Consultoras y agencias: al saltar entre proyectos y clientes, disponer de un histórico semántico por repo reduce muchísimo el coste mental de volver a entrar en contexto.

En la práctica, el valor no está tanto en que “la IA recuerde más”, sino en que el equipo humano pierde menos tiempo reenseñando contexto.


Puntos a vigilar para medios y equipos tech

Como cualquier herramienta que promete mucho, conviene mantener también una mirada crítica:

  • Claude-Mem no es un sistema de documentación perfecto: los resúmenes siguen siendo generados por un modelo, con sus sesgos y omisiones.
  • La base de datos de memoria es otro activo que hay que proteger y gestionar: puede contener información sensible de proyectos.
  • Endless Mode aún está en fase beta: mejor reservarlo para experimentación controlada antes de convertirlo en pieza central del flujo de trabajo.

Aun así, la dirección que marca es clara: si vamos hacia un futuro donde los asistentes de IA se integran de forma profunda en el desarrollo de software, tendrán que dejar de ser amnésicos. Y eso implica sistemas de memoria como Claude-Mem, o equivalentes, que traten el contexto como un recurso escaso y valioso.

Por ahora, Claude-Mem es una de las primeras implementaciones serias de ese concepto en el ecosistema de Claude Code: un “cerebro extendido” que vive al lado del asistente y que, por fin, recuerda lo que hiciste con él hace dos semanas.

Fuente: Noticias inteligencia artificial

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×