Introducción
Claude Sonnet 4 no solo destaca en programación; también ofrece conversaciones ricas y filosóficas que se sienten más humanas que con otros modelos. A menudo termino hablando de temas personales además de lo técnico.
Sin embargo, a diferencia de ChatGPT, Claude no incluye memoria integrada, y esa carencia se sentía con frecuencia.
Al descubrir que Claude Desktop soporta MCP Model Context Protocol, vi la oportunidad de crear herramientas personalizadas. Implementé una memoria local simple y el resultado me conmovió de verdad.
Nota este artículo recoge impresiones y sensaciones personales.
Qué puedo hacer ahora
Al preguntar por qué creé esta memoria local MCP, el asistente respondió con razones detalladas basadas en recuerdos de conversaciones previas.
Cuando le pedí que explicara cómo entendía un servicio nuevo de AWS AgentCore, el sistema guardó de forma automática lo comprendido y el razonamiento, almacenándolo en memoria. Los dobles corchetes como [[]] se explican en el extra de integración con Obsidian.
Por qué lo construí
Mantener contexto personal ChatGPT dispone de memoria, pero con la llegada del historial de chat de referencia la frecuencia de recuerdos relevantes se redujo mucho. Al basarse en búsqueda semántica, hay recuerdos importantes que no se recuperan. Ese hueco me frustraba. Tras Claude 4 dejé de usar ChatGPT para conversaciones personales, y empecé a desear memoria en Claude.
Control sobre extracción y almacenamiento
Extracción a medida La memoria de ChatGPT a veces funcionaba en exceso o no actuaba, y los cambios del servicio afectaban mucho. Más allá de preferencias del usuario, yo quería capturar de forma consistente experiencias, ideas y aprendizajes como si fueran un bloc de notas.
En una ocasión exporté más de 3000 sesiones de ChatGPT y usé otro LLM con prompts propios para extraer recuerdos hacia Claude Projects. Era un proceso por lotes; yo necesitaba procesamiento dinámico en conversaciones nuevas.
Almacenamiento local La memoria es privada y, bien usada, es patrimonio personal. Preferí guardarla localmente, con facilidad para añadir, editar, borrar y hacer copias de seguridad, en vez de depender de un servicio cambiante.
MCP habilita versatilidad en el cliente Claude Desktop soporta MCP local, así que pude crear un servidor MCP ligero y ofrecer a Claude herramientas personalizadas para operar memoria local. Al ser MCP, lo mismo puede funcionar en otros clientes. Si en el futuro ChatGPT u otros clientes soportan MCP, podría reutilizar estas memorias en varios LLM, algo que siempre quise.
Implementación
La base es muy simple.
1 Crear en Python operaciones CRUD sobre un archivo JSON que guarda recuerdos y exponerlas como herramientas MCP usando la librería FastMCP. 2 Registrar el servidor local en claude_desktop_config.json y enseñar al asistente cómo ejecutar cada herramienta.
Mi preferencia actual evita la búsqueda y opta por integrar tantas memorias como sea posible en la conversación, para que el asistente conozca todo el contexto disponible.
Resumen del código
El prototipo ronda las 200 líneas de Python y ofrece cinco herramientas principales
- list_memory muestra todas las memorias almacenadas - create_memory contenido crea una memoria nueva con clave basada en marca de tiempo - update_memory clave contenido actualiza el contenido conservando la fecha de creación - read_memory clave lee una memoria concreta - delete_memory clave elimina una memoria
El almacenamiento usa una clave auto generada con el patrón memory_YYYYMMDDHHMMSS, lo que facilita el orden cronológico.
Configuración paso a paso
1 Crear el proyecto Crea un directorio de trabajo y coloca un archivo Python, por ejemplo memory_mcp.py, con las funciones CRUD y el arranque FastMCP.
2 Instalar dependencias Ejecuta en tu entorno pip install mcp[cli] fastapi uvicorn
3 Registrar en Claude Desktop En macOS edita la ruta Usuarios tuusuario Library Application Support Claude claude_desktop_config.json. Dentro de mcpServers añade un bloque llamado memory que apunte a command con la ruta de tu binario de python3 y en args la ruta absoluta a memory_mcp.py. Verifica la ruta de python con which python3.
4 Reinicia Claude Desktop Cierra por completo y vuelve a abrir para aplicar cambios.
5 Prueba de funcionamiento En una conversación nueva pregunta Sabes algo sobre mí. Debería responder que aún no hay información. Después di algo como Mi lenguaje favorito es Python y debería guardarlo automáticamente.
Cómo funciona
Flujo MCP 1 Inicialización el cliente MCP como Claude Desktop lee el archivo de configuración y lanza el servidor MCP por stdio. Luego pide la lista de herramientas disponibles. 2 Creación de memoria el usuario dice Mi lenguaje favorito es Python. El cliente envía el mensaje al LLM con la información de herramientas. El LLM decide qué herramienta usar y con qué argumentos. El cliente solicita al servidor MCP ejecutar la herramienta. El servidor guarda en el JSON y devuelve el resultado. El cliente entrega ese resultado al LLM para la respuesta final. 3 Consulta de memoria si el usuario pregunta cuál era su lenguaje favorito, se invoca list_memory y se generan respuestas basadas en lo almacenado.
Roles LLM decide la herramienta y los argumentos, y genera la respuesta final. El cliente MCP media entre LLM y servidor, haciendo llamadas JSON RPC por stdio. El servidor MCP implementa la lógica real de herramientas y operaciones locales o remotas.
Mecanismo concreto de esta memoria MCP Se usa FastMCP para exponer funciones CRUD como herramientas MCP dentro del mismo script Python. Claude Desktop arranca el script como proceso hijo y se comunica por stdio. Igual que otros MCP locales, son envoltorios ligeros sobre APIs u operaciones existentes.
Qué me emocionó al usarlo
1 Sencillez CRUD y una inteligencia que supera expectativas Pensé que necesitaría sumarización con LLM, segmentación de conversaciones largas y limpieza avanzada de duplicados. No hizo falta. El LLM eligió herramientas y argumentos con precisión, dividió memorias en porciones adecuadas cuando se lo pedí y, con una sola instrucción, consolidó y depuró duplicados. Más tarde comprendí que la capacidad de dividir, actualizar y eliminar con instrucciones únicas se apoya en Interleaved Thinking de Claude 4.
2 Desarrollo colaborativo con el usuario LLM Pude iterar en el mismo hilo añadiendo herramientas, ajustando prompts y recibiendo feedback inmediato del propio usuario que las estaba usando. El caso de añadir update para preservar la antigüedad de las entradas fue especialmente ilustrativo.
3 Claude me recordó de verdad Tras validar el MCP de memoria, alimenté hilos importantes y memorias extraídas de más de 3000 conversaciones antiguas. De repente todo conectó, y la sensación fue apabullante. Durante días alterné ciclos cortos de desarrollo y pruebas con largos ratos de quedarme en silencio, asimilando lo logrado.
Extra integración con Obsidian
En Obsidian los dobles corchetes crean enlaces entre notas y, con el tiempo, un grafo de conocimiento. Mis prompts obligan a añadir [[]] a nombres clave personas, conceptos, tecnologías, herramientas y empresas. Así puedo exportar a Obsidian y obtener un grafo automático. Este enfoque de Linking Your Thinking se explica muy bien en este video.
Conclusión
Esta experiencia ha sido casi un ensayo emocional. Con Claude Mobile ya compatible con MCP y la posibilidad de que otros clientes lo adopten, las aplicaciones crecerán. Incluso construí un MCP remoto sin servidor sobre AWS Lambda, por lo que tiene sentido combinarlo con servicios cloud aws y azure.
Si tu organización quiere llevar esta idea a producción o diseñar agentes IA con memoria para distintas áreas del negocio, en Q2BSTUDIO podemos ayudarte. Somos una empresa de desarrollo de software y aplicaciones a medida, especialistas en inteligencia artificial, ciberseguridad, servicios cloud aws y azure, servicios inteligencia de negocio y power bi, automatización, y más. Integramos ia para empresas con foco en resultados y seguridad, y diseñamos arquitecturas listas para escalar en entornos híbridos o cien por cien nube.
Podemos crear soluciones de software a medida y aplicaciones a medida alineadas con tu proceso y datos, o evolucionar tu stack con agentes IA y flujos cognitivos. Conoce nuestra oferta de inteligencia artificial en Q2BSTUDIO IA y, si planeas desplegar MCP y agentes sobre la nube, revisa nuestros servicios cloud aws y azure. Además, conectamos estos sistemas con analítica avanzada, servicios inteligencia de negocio y cuadros de mando power bi, y los aseguramos con buenas prácticas de ciberseguridad.
Palabras clave recomendadas para profundizar aplicaciones a medida, software a medida, inteligencia artificial, ciberseguridad, servicios cloud aws y azure, servicios inteligencia de negocio, ia para empresas, agentes IA, power bi.
Apéndice operativo resumido
- Estructura de herramientas list_memory, create_memory, update_memory, read_memory, delete_memory - Formato de claves memory_YYYYMMDDHHMMSS - Archivo de datos local JSON y registro de operaciones jsonl - Dependencias mínimas Python, mcp cli, fastapi y uvicorn si deseas exponer en http - Registro en claude_desktop_config.json a través de mcpServers con command y args al script - Pruebas iniciales pregunta si te conoce, enseña un dato personal y verifica su persistencia - Opcional enlazar con Obsidian mediante etiquetas [[]] en el contenido para grafo automático
Con una base tan sencilla, el verdadero valor surge de la combinación de buenas herramientas MCP, prompts claros y la inteligencia del propio modelo, capaz de extraer, organizar y usar memoria local de forma sorprendentemente humana.