POLITICA DE COOKIES

Q2BSTUDIO.COM utiliza cookies técnicas, analíticas, de sesión y de publicidad con la finalidad de prestar un mejor servicio. No obstante, necesitamos su consentimiento explícito para poder utilizarlas. Así mismo puede cambiar la configuración de las cookies u obtener más información aquí .

Servidor MCP en Python para Consultar una Base de Conocimiento

Servidor MCP en Python para Consultar una Base de Conocimiento

Publicado el 29/08/2025

Supongamos que tienes un blog y quieres consultarlo desde tu asistente de IA como Claude, como lo harías. En el ecosistema actual de herramientas impulsadas por IA la forma más sencilla es crear un servidor MCP Model Context Protocol que pueda acceder al blog y devolver exactamente lo que buscas sin salir de la conversación.

Este artículo explica paso a paso cómo construir un servidor MCP en Python que actúa como puente entre Claude y el contenido de tu blog. Veremos la arquitectura general la instalación y dos herramientas principales que permiten buscar publicaciones y recuperar su contenido completo aprovechando SerpApi y un índice llms.txt.

Arquitectura y flujo de datos. El servidor MCP corre localmente y comunica con Claude a través de stdin stdout. Cuando el asistente necesita buscar contenido se invoca una herramienta search posts que consulta SerpApi con una búsqueda site sobre tu dominio y devuelve títulos urls y fragmentos. Si quieres leer un artículo completo se invoca get post content que usa el archivo llms.txt del blog para recuperar el enlace raw en GitHub y descargar el Markdown.

Qué es MCP. El Model Context Protocol es un estándar abierto que permite a aplicaciones de IA conectarse de forma segura a fuentes de datos externas y herramientas. Con MCP puedes exponer recursos y herramientas típicas como archivos bases de datos y APIs. En nuestro caso usamos herramientas para ejecutar acciones concretas como buscar y obtener contenido de blog evitando exponer directamente datos sensibles y manteniendo límites de seguridad claros.

Herramientas versus recursos. En MCP los recursos son similares a endpoints GET y sirven datos sin efectos laterales. Las herramientas pueden ejecutar acciones y devolver resultados procesados. Para este caso preferimos tool calling porque necesitamos realizar búsquedas y descargas sobre el índice llms.txt y transformar la respuesta en un formato amigable para el chat.

Dependencias y SDKs. Utilizaremos el SDK de MCP para Python y la librería de SerpApi para hacer búsquedas en Google con el operador site. Para la gestión de paquetes recomendamos uv que crea entornos virtuales y facilita el despliegue local con Claude Desktop.

Pasos para poner en marcha. 1 Instalar uv siguiendo la documentación oficial. 2 Clonar el repositorio ejemplo git clone https://github.com/jtemporal/blog-search-mcp-in-python.git y entrar en la carpeta cd blog-search-mcp-in-python y git switch base-app. 3 Inicializar el proyecto con uv sync para crear el entorno y descargar dependencias. 4 Copiar la plantilla de configuración cp .config.example .config y editar .config para incluir blog base url serpapi key server name y log level. 5 Probar la configuración uv run pytest tests/test_config.py -v y asegurarse de que las pruebas pasan.

Configuración recomendada del archivo .config. En la sección MCP_SERVER agrega la URL base de tu blog la clave de SerpApi y un nombre para el servidor. Mantén este archivo fuera del control de versiones porque contiene claves sensibles.

Implementación de las herramientas. La herramienta search posts recibe un parámetro query y crea una búsqueda site sobre tu dominio usando SerpApi. Procesa organic results extrayendo title link snippet y formatea una respuesta legible para la conversación. Si no encuentra resultados devuelve un mensaje apropiado evitando fallos inesperados.

La herramienta get post content recibe un parámetro title y consulta el archivo llms.txt ubicado en la raiz del blog. Llms.txt es un índice optimizado para LLM que lista títulos y enlaces raw a los archivos Markdown en GitHub. El servidor busca coincidencias en las lineas del archivo obtiene la URL raw correspondiente descarga el Markdown y lo devuelve al asistente para que pueda resumirlo o citarlo.

Qué es llms.txt. Es un archivo de texto simple que actua como feed LLM con un encabezado y una lista de enlaces raw a las entradas del blog en formato Markdown. Este formato reduce ruido frente a HTML y facilita la lectura y procesamiento por parte de modelos grandes.

Hacer ejecutable el servidor. Define la instancia MCP en el servidor Python y termina el fichero con una entrada que invoque mcp.run transport=stdio para que el intercambio se haga por stdin stdout. Este transporte es ideal para integraciones locales con aplicaciones de escritorio como Claude Desktop.

Probar con el MCP Inspector. Ejecuta npx @modelcontextprotocol/inspector uv run src/server.py y en la interfaz conecta con la instancia lista las herramientas y pruebalas desde la pestaña Tools. Esto ayuda a depurar la API y confirmar que search posts y get post content quedan registrados correctamente.

Integración con Claude Desktop. Usa el instalador proporcionado por el SDK uv run mcp install src/server.py --with google-search-results para generar el archivo de configuración de Claude Desktop. Reinicia la app abre preferencias y en la sección Developer deberías ver tu servidor Blog Search Server en estado running. Desde una conversación Claude podrá sugerir ejecutar las herramientas cuando detecte intenciones de búsqueda o lectura de posts.

Flujo de uso en la conversación. Preguntas como puede buscar en mi blog entradas sobre pyenv permiten a Claude usar search posts con query pyenv y presentar títulos enlaces y fragmentos. Luego puedes pedir recupera el contenido del primer post y Claude invocara get post content para traer el Markdown y resumirlo o extraer comandos clave.

Seguridad y buenas prácticas. Protege tu servidor MCP con mecanismos de autenticación y límites de uso para evitar abusos. No expongas claves en repositorios públicos y considera desplegar el servidor en un entorno controlado o detrás de una capa de API gateway cuando quieras accederlo desde la nube.

Sobre Q2BSTUDIO. Q2BSTUDIO es una empresa de desarrollo de software a medida especializada en aplicaciones a medida soluciones de inteligencia artificial ciberseguridad y servicios cloud aws y azure. Ofrecemos servicios de inteligencia de negocio implementamos soluciones de ia para empresas diseñamos agentes IA y creamos integraciones con Power BI para visualización y análisis avanzado. Si buscas software a medida o aplicaciones a medida nuestro equipo puede ayudarte a diseñar desplegar y proteger soluciones que integran MCP y otras tecnologías de GenAI.

Beneficios de esta aproximación. Servidor local simple que requiere poca infraestructura. Búsqueda confiable aprovechando la calidad de Google a traves de SerpApi. Acceso rapido al contenido mediante enlaces raw en GitHub evitando limites de API. Formato llms.txt optimizado para LLM que reduce coste de procesamiento y mejora la relevancia en las respuestas.

Casos de uso. Consulta de bases de conocimiento internas blogs manuales de producto y documentacion tecnica soporte interno mediante agentes IA y flujos conversacionales. Integracion con pipelines de inteligencia de negocio y dashboards en Power BI para enriquecer informes con contenido explicativo o contexto extraido por IA.

Siguientes pasos. En futuras mejoras se puede añadir autenticacion por token para proteger el servidor implementar cache y paginado para resultados extensos añadir control de cuotas y desplegar la solucion en servicios cloud aws y azure para acceso remoto seguro. Tambien merece la pena explorar embeddings y retrieval augmented generation para respuestas mas completas.

Recursos y codigo. El codigo completo de referencia esta disponible en GitHub en el repositorio https github.com jtemporal blog-search-mcp-in-python. Si necesitas ayuda en la implementacion o deseas desarrollar una version a medida contacta con Q2BSTUDIO especialistas en software a medida inteligencia artificial ciberseguridad servicios cloud aws y azure servicios inteligencia de negocio agentes IA y power bi.

Resumen. Construir un servidor MCP en Python para consultar un blog permite integrar la busqueda y lectura de contenidos directamente en conversaciones con asistentes de IA mejorando la productividad y la experiencia de usuario. Combinando SerpApi llms.txt y herramientas MCP obtendras una solucion potente y extensible ideal para proyectos empresariales y soluciones de software a medida.

Si quieres que desde Q2BSTUDIO desarrollemos e integremos esta solucion para tu empresa o proyecto contactanos y te guiaremos en el diseño la seguridad y el despliegue de la solucion.

Fin del artículo, inicio de la diversión
Construyendo software juntos

Dando vida a tus ideas desde 2008

Diseñamos aplicaciones móviles y de escritorio innovadoras que cumplen con tus requisitos específicos y mejoran la eficiencia operativa.
Más info
Cuéntanos tu visión
Sea cual sea el alcance, podemos convertir tu idea en realidad. Envíanosla y charlemos sobre tu proyecto o una colaboración futura.
Contáctanos
artículos destacados
Live Chat
Enviado correctamente.

Gracias por confiar en Q2BStudio