Tiempo estimado 25 minutos Nivel principiante a intermedio Stack principal TypeScript y LunarCrush API Resumen rápido Aprende a envolver cualquier API REST en un servidor MCP Model Context Protocol para que cualquier gran modelo de lenguaje la use de forma nativa. Usamos LunarCrush como ejemplo pero el patrón funciona con CUALQUIER API REST. Resultado final un servidor TypeScript que sirve a clientes MCP como Claude Desktop, extensiones IDE y agentes personalizados
Qué vas a construir Un servidor MCP funcional que envuelve LunarCrush Herramientas personalizadas adicionales más allá del MCP oficial Patrón aplicable a cualquier API REST Posibilidad de combinar múltiples APIs y añadir lógica de negocio Integración con LLMs para consultas conversacionales Lenguaje agnóstico una vez expuesto por MCP sirve a clientes en Python Go Rust y más
Conceptos clave Qué es una API REST Es la forma habitual en que servicios web exponen datos mediante endpoints HTTP que devuelven JSON. Qué es MCP Model Context Protocol Protocolo basado en JSON RPC 2.0 para conectar modelos de lenguaje con datos y herramientas externas. MCP describe herramientas y sus esquemas para que el LLM pueda descubrir y llamar a capacidades en tiempo de ejecución
REST vs MCP REST es la fuente de datos. MCP es la capa adaptadora que describe herramientas y devuelve respuestas optimizadas para LLMs. Ventajas de MCP un servidor sirve a todos los clientes LLM autodescriptivo tipo seguro y validado reducción de coste de tokens y centralización de la lógica de negocio
Por qué crear un servidor MCP propio Aunque existe un MCP oficial para LunarCrush conviene construir uno propio cuando quieres combinar varias APIs optimizar respuestas reducir tokens añadir caché o lógica de negocio marca y nombres de herramientas propios y gestionar autenticación o multitenancy
Resumen de la arquitectura Cliente MCP LLM obtiene lista de herramientas llamadas por nombre servidor MCP traduce llamadas a REST o a otros servicios y devuelve JSON o markdown optimizado
Requisitos Node.js 18 o superior TypeScript opcional Claude Desktop para pruebas clave de LunarCrush y otras APIs opcionales como Fear and Greed DeFiLlama DexScreener Hyperliquid
Paso 1 crear proyecto Inicializar npm instalar @modelcontextprotocol/sdk zod y dependencias TypeScript crear estructura src index.ts tools.ts handlers.ts api-client.ts y archivo env con LUNARCRUSH_API_KEY no subir .env al repositorio
Paso 2 definir herramientas Las herramientas son lo que el LLM descubre cada herramienta tiene name description y un input schema. Ejemplos útiles get_topic list_cryptocurrencies compare_topics get_whale_posts Define descripciones claras y esquemas con Zod para validación en tiempo de ejecución
Paso 3 implementar handlers Los handlers llaman a la API REST transforman y limpian la respuesta y devuelven JSON o markdown optimizado para lectura por el LLM. Separar api-client para llamadas reutilizables y manejadores para cada herramienta ejemplo realizar fetch a https://lunarcrush.com/api4/public/topic/{topic}/v1 y formatear galaxy score alt_rank sentimiento precio y cambios
Paso 4 conectar servidor Usar Server del SDK y transporte StdioServerTransport para desarrollo local o Streamable HTTP para despliegue. Implementar dos request handlers esenciales ListToolsRequest para descubrir herramientas y CallToolRequest para ejecutar herramientas. Manejar errores y devolver contenido como texto o JSON para que el LLM procese correctamente
Paso 5 probar con Claude Desktop Añadir servidor en la configuración de Claude Desktop indicando comando node args con ruta absoluta y variables de entorno iniciar servidor y en Claude preguntar por ejemplo Cual es el Galaxy Score de Bitcoin o Compara Bitcoin Ethereum y Solana
Paso 6 herramientas personalizadas Añadir herramientas que no existen en el MCP oficial aporta valor ejemplos compare_topics que compara 2 a 5 temas en paralelo y get_whale_posts que filtra publicaciones por cuentas de alto seguimiento. Otras ideas get_market_sentiment integrando Fear and Greed analyze_sector top_creators y alertas personalizadas
Paso 7 combinar múltiples APIs La fuerza de un MCP personalizado es combinar fuentes ejemplo LunarCrush + Fear and Greed Index + DeFiLlama para combinar señales sociales on chain y de sentimiento y generar métricas derivadas como conviction score o señales de oportunidad. Esta capa permite lógica de negocio y caché para reducir costes por cuota
Atajos con LLM Usa un LLM para generar el esqueleto del servidor proporcionándole el OpenAPI o la documentación. Pedir que genere proyecto TypeScript con @modelcontextprotocol/sdk Zod handlers y api-client acelera el desarrollo y reduce tiempo de 25 minutos a pocos minutos para el boilerplate
Transportes cuando usar stdio vs Streamable HTTP stdio desarrollo local y apps de escritorio sencillo Streamable HTTP producción soporta respuestas sync y streaming via SSE y acceso remoto
Casos sin LLM MCP no requiere un LLM puedes invocar herramientas desde código usando el cliente SDK para scripts automatizados dashboards y recolección programada
Métricas y herramientas personalizadas ejemplo get_crowd_sentiment get_whale_consensus calculate_conviction y get_funding_rates obtener señales compuestas que no entrega la API oficial y que son valor diferencial para clientes
Envolver otro servidor MCP Si ya existe un MCP oficial es más sencillo proxiar ese servidor y añadir o bloquear herramientas en lugar de envolver REST directamente. Esto permite filtrar herramientas que consumen tokens y añadir las tuyas propias
Atención práctica Errores comunes spawn ENOENT usar ruta absoluta 401 revisar LUNARCRUSH_API_KEY 429 añadir caché y backoff validar esquemas Zod y compilar TypeScript antes de ejecutar
ROI y modelos de negocio Para uso interno reduce horas semanales de consultas manuales y para servicio a terceros integrar APIs en MCP puede facturarse entre 500 y 2000 por integración dependiendo de complejidad y número de APIs Propuesta de valor entregar un servicio que haga la API visible para agentes IA y extensiones IDE
Soporte multicloud y seguridad Al desplegar en producción considerar autenticación y despliegue en providers como AWS o Azure incorporar prácticas de ciberseguridad y pentesting y añadir monitorización. Si buscas soporte en infraestructura y seguridad podemos ayudarte con despliegue seguro en servicios cloud aws y azure y pruebas de seguridad
Sobre Q2BSTUDIO Q2BSTUDIO es una empresa de desarrollo de software y aplicaciones a medida especializada en inteligencia artificial ciberseguridad y servicios cloud. Ofrecemos soluciones completas desde software a medida y aplicaciones a medida hasta implementación de agentes IA y proyectos de inteligencia de negocio con Power BI. Si necesitas un equipo que construya tu servidor MCP o integre APIs de forma segura y escalable solicita nuestros servicios de desarrollo en desarrollo de aplicaciones y software a medida y descubre cómo podemos añadir inteligencia con servicios de inteligencia artificial
Palabras clave integradas aplicaciones a medida software a medida inteligencia artificial ciberseguridad servicios cloud aws y azure servicios inteligencia de negocio ia para empresas agentes IA power bi posicionamiento SEO y conversiones
Conclusión En 25 minutos puedes construir un servidor MCP que convierta cualquier API REST en una interfaz LLM nativa. Este enfoque centraliza lógica reduce tokens mejora la experiencia de usuario y abre nuevas oportunidades de producto y negocio. Si quieres que Q2BSTUDIO lo implemente para tu API contacta con nosotros y transformaremos tu API en un servicio AI native escalable y seguro