Si construyes o utilizas agentes IA, necesitas respuestas actuales, con fuentes verificables y eficientes en tokens. Eso es exactamente lo que ofrece la combinación de llms.txt y MCP Model Context Protocol: descubrir la documentación correcta, traer solo lo necesario y conectarlo directamente a tu IDE o a tu host de agentes. En Q2BSTUDIO, empresa de desarrollo de software y aplicaciones a medida, especialistas en inteligencia artificial, ciberseguridad y servicios cloud, lo implementamos a diario para potenciar agentes IA productivos, seguros y trazables.
En esta guía aprenderás: 1 Por qué llms.txt importa y cómo funciona 2 Cómo consumir cualquier llms.txt usando el de Stripe como ejemplo 3 Cómo integrar la documentación mediante un servidor MCP en Cursor, Windsurf o Claude Desktop 4 Buenas prácticas de seguridad, rendimiento y gobierno 5 Solución de problemas y patrones avanzados
Usaremos el llms.txt público de Stripe en: https://docs.stripe.com/llms.txt
Qué es llms.txt: es un archivo Markdown legible por humanos y LLM en la raíz del sitio de documentación por ejemplo en la ruta llms.txt. Actúa como un mapa curado para IA que enumera las páginas más importantes y amigables para LLM, a menudo con espejos en .md para un parseo limpio y mínimo uso de tokens.
Por qué es útil: 1 Curaduría: orienta al agente a las mejores fuentes, no a todas 2 Eficiencia: los espejos .md se parsean mejor y comprimen muy bien 3 Fiabilidad: reduce alucinaciones al forzar al agente a consultar documentación real
Estructura típica: 1 Título principal 2 Resumen opcional en cita 3 Secciones H2 con enlaces en viñetas con formato Título URL y nota opcional 4 Sección adicional opcional para contenidos complementarios
Cómo trabajan juntos llms.txt y MCP: llms.txt es la capa de descubrimiento que indica dónde está el contenido de calidad. MCP es la capa de ejecución que estandariza cómo un host de agentes por ejemplo un IDE conversa con herramientas y servidores para leer recursos, llamar APIs y aplicar prompts. En la práctica se usa un servidor MCP de documentación que sabe leer llms.txt y traer bajo demanda las páginas enlazadas. El IDE o agente invoca herramientas MCP para recuperar solo lo necesario para responder.
Inicio rápido con Stripe y un servidor MCP: Prerrequisitos instala uv con el comando curl -LsSf https://astral.sh/uv/install.sh | sh y comprueba con uvx --version.
Opción A por SSE ideal para inspección: uvx --from mcpdoc mcpdoc --urls Stripe:https://docs.stripe.com/llms.txt --transport sse --port 8082 --host localhost. Después abre el inspector MCP con npx @modelcontextprotocol/inspector y conéctalo a https://localhost:8082.
Opción B por stdio integración con IDE: uvx --from mcpdoc mcpdoc --urls Stripe:https://docs.stripe.com/llms.txt --transport stdio.
Integración con Cursor: edita el archivo de configuración de MCP y registra un servidor con command uvx y args --from mcpdoc mcpdoc --urls Stripe:https://docs.stripe.com/llms.txt --transport stdio. Añade una regla breve para preguntas sobre Stripe que indique 1 llamar list_doc_sources 2 llamar fetch_docs sobre llms.txt 3 seleccionar y traer las páginas .md relevantes 4 responder citando las URLs consultadas.
Integración con Windsurf Codeium: añade un servidor MCP con command uvx y los mismos args de stdio. Incluye una instrucción para que el agente consulte la documentación antes de responder.
Integración con Claude Desktop macOS: registra el servidor MCP con command uvx y args de stdio. Si hay problemas de ruta de Python, especifica el intérprete con la opción --python por ejemplo --python /usr/bin/python3 antes de --from mcpdoc.
Uso en la práctica flujo del agente: formula preguntas como Cómo recomienda Stripe gestionar actualizaciones de versión del API o Cómo verificar firmas de webhooks con Stripe. Flujo ideal 1 list_doc_sources confirma que Stripe está registrado 2 fetch_docs de https://docs.stripe.com/llms.txt devuelve los enlaces curados 3 fetch_docs de las páginas .md más relevantes por ejemplo api/versioning.md upgrades.md webhooks.md webhooks/signature.md 4 el agente responde citando las URLs exactas utilizadas. Resultado respuestas actuales, mínima inversión de tokens y trazabilidad clara mediante registros de herramientas MCP.
Páginas de Stripe útiles y habituales encontradas en llms.txt: 1 https://docs.stripe.com/api.md 2 https://docs.stripe.com/api/versioning.md 3 https://docs.stripe.com/upgrades.md 4 https://docs.stripe.com/testing.md 5 https://docs.stripe.com/webhooks.md 6 https://docs.stripe.com/webhooks/signature.md 7 https://docs.stripe.com/connect.md. Recuerda que la autoridad siempre es el llms.txt en vivo.
Avanzado combinar múltiples fuentes llms.txt: si trabajas con Stripe y a la vez con LangChain, LangGraph o documentación interna, arranca el servidor con varias fuentes por ejemplo uvx --from mcpdoc mcpdoc --urls Stripe:https://docs.stripe.com/llms.txt LangChain:https://python.langchain.com/llms.txt LangGraph:https://langchain-ai.github.io/langgraph/llms.txt --transport sse --port 8082 --host localhost. El agente podrá consultar en paralelo manteniéndose en páginas curadas.
Crear tu propio servidor MCP de docs opcional: expón recursos para el llms.txt y para cada página .md bajo demanda. Expón herramientas como list_doc_sources y fetch_docs con lista de URLs. Añade autenticación para fuentes privadas y aplica listas de dominios permitidos. Registra todo con transporte stdio o sse según el host.
Seguridad, rendimiento y gobierno: 1 Confía pero verifica llms.txt es descubrimiento, no confianza. Aplica allowlists de dominios tanto en el servidor como en el host 2 Prioriza espejos .md por su rapidez y limpieza de parseo 3 Limita tasas y cachea por URL y cabeceras ETag o Last Modified, respeta respuestas 429 y normas del editor 4 Permisos para docs privadas autentica y registra accesos, deja activadas las trazas de herramientas del IDE 5 Gobernanza si publicas docs añade llms.txt y un bloque opcional para contenido secundario, revisa y poda con frecuencia.
Solución de problemas: 1 Errores de dominio bloqueado arranca con allowlist por ejemplo uvx --from mcpdoc mcpdoc --urls Stripe:https://docs.stripe.com/llms.txt --allowed-domains docs.stripe.com,anotherdomain.com --transport stdio 2 Herramientas no visibles en el IDE verifica que el proceso está corriendo con transporte stdio y que la ruta del archivo de configuración es correcta 3 Problemas de rutas Python o uv añade --python ruta a python en los args 4 El agente ignora el servidor incluye una regla breve que le obligue a usar list_doc_sources y fetch_docs antes de responder preguntas sobre Stripe.
Ejemplo de flujo completo: 1 Inicia el servidor para IDE uvx --from mcpdoc mcpdoc --urls Stripe:https://docs.stripe.com/llms.txt --transport stdio 2 Configura tu IDE como se describió 3 Pregunta Cómo verificar la firma de los webhooks de Stripe 4 El agente lista fuentes, trae llms.txt, luego webhooks.md y webhooks/signature.md, y responde con pasos citando enlaces. Obtendrás una respuesta fundamentada en documentación viva y justo a tiempo.
Cierre: llms.txt ofrece a tus agentes un mapa curado y MCP lo convierte en acción. Al conectar el llms.txt de Stripe o cualquier otro a un servidor MCP de documentación, obtienes respuestas con respaldo en fuente, ejecuciones más rápidas y flujos auditables y componibles entre múltiples conjuntos de documentación. Si buscas una implantación lista para producción o integrar estos flujos con aplicaciones a medida y software a medida, en Q2BSTUDIO podemos ayudarte desde la estrategia hasta la operación, incluyendo agentes IA, ciberseguridad, servicios cloud aws y azure, servicios inteligencia de negocio y power bi. Descubre cómo impulsamos proyectos de ia para empresas en soluciones de inteligencia artificial e intégralo en tus productos con nuestro enfoque de desarrollo de aplicaciones a medida.