Dyad es una herramienta de código abierto, local y gratuita para crear aplicaciones potenciadas por inteligencia artificial sin escribir código. Es una alternativa centrada en la privacidad frente a plataformas SaaS, diseñada para ejecutarse en tu equipo o servidor sin dependencia de proveedores. Con integración nativa con Supabase, soporte para cualquier modelo de IA incluyendo modelos locales a través de Ollama y conexión fluida con tus herramientas existentes, Dyad permite lanzar aplicaciones full stack de forma rápida, intuitiva y sin vendor lock in.
Recursos principales Dyad sitio oficial https://www.dyad.sh/ Repositorio GitHub https://github.com/dyad-sh/dyad Ollama sitio oficial https://ollama.com/
En este artículo explicamos paso a paso cómo integrar Dyad con Ollama usando una VM con GPU como ejemplo. Este flujo garantiza rendimiento para modelos grandes y privacidad para proyectos empresariales, ideal para equipos que buscan aplicaciones a medida y software a medida.
Paso 1 crear cuenta en la plataforma de nube Elige un proveedor de máquinas virtuales con GPU que cumpla normativa como GDPR SOC2 ISO27001. NodeShift es una opción económica y compatible con estos estándares pero puedes usar AWS Azure u otro proveedor según prefieras.
Paso 2 desplegar una VM con GPU Selecciona el tipo de GPU que necesites H100 A100 u opciones más económicas según VRAM CPU y almacenamiento. Configura tamaño de disco y región.
Paso 3 autenticación Elige método de acceso por contraseña o preferiblemente por clave SSH. Genera una clave SSH y añádela a la VM para un acceso seguro y reproducible.
Paso 4 elegir imagen de la VM Usa una imagen con soporte NVIDIA CUDA para instalar controladores y poder ejecutar Ollama sobre la GPU.
Paso 5 conexión por SSH Conecta a la VM con la clave SSH proporcionada y verifica las GPUs con el comando nvidia-smi para confirmar drivers y disponibilidad de VRAM.
Paso 6 instalar Ollama En la terminal de la VM instala Ollama ejecutando el script de instalación oficial curl -fsSL https://ollama.com/install.sh | sh A continuación inicia el servicio con OLLAMA_HOST=0.0.0.0:11434 ollama serve para exponer la API localmente en el puerto 11434.
Paso 7 descargar modelos Puedes bajar modelos compatibles por ejemplo ollama pull gpt-oss:120b y esperar a que termine la extracción y verificación. Lista los modelos instalados con ollama list.
Paso 8 tunel SSH para uso remoto Si Ollama corre en una VM remota establece un túnel SSH desde tu máquina local ssh -L 11434:localhost:11434 root@tu-vm-ip -p tu-puerto-ssh para que Dyad pueda comunicarse con Ollama en localhost:11434 como si el servicio fuera local.
Paso 9 descargar e instalar Dyad Descarga el instalador desde el sitio oficial seleccionando la versión para tu sistema operativo macOS Windows o Linux. Instala y lanza la aplicación.
Paso 10 configuración inicial en Dyad Dyad detecta Node.js si está instalado y solicita claves de proveedores de IA para generar código. Puedes conectar Google Gemini OpenAI Anthropic OpenRouter o añadir un proveedor personalizado para Ollama.
Paso 11 añadir proveedor personalizado Para conectar Ollama añade un nuevo proveedor con ID ollama y como API base URL usa https://localhost:11434/v1 Si Ollama está en una VM remota usa la URL local tras tunel SSH.
Paso 12 registrar modelos en Dyad En Settings AI Model Providers selecciona el proveedor ollama y añade modelos custom usando el Model ID tal como aparece en ollama por ejemplo gpt-oss:120b define nombre descripción ventana de contexto y tokens máximos según tu necesidad.
Paso 13 generar tu primera app Con la model picker selecciona Local models ollama y el modelo registrado por ejemplo gpt-oss solicita a Dyad crear una app detallando stack y funcionalidades por ejemplo React Vite Tailwind editor markdown export a HTML guardado en localStorage atajos de teclado y README. Ajusta temperatura y max output tokens para generación de código fiable.
Paso 14 ejecutar iterar y desplegar Cuando Dyad termine el scaffolding ejecuta npm install && npm run dev o el script que indique el proyecto prueba la app localmente y pide cambios iterativos mediante nuevos prompts para añadir funciones o preparar un build listo para despliegue.
Buenas prácticas y consideraciones Para modelos grandes usa VM con suficiente VRAM y monitoriza uso de GPU y memoria. Mantén Ollama actualizado revisa seguridad del puerto 11434 y restringe acceso mediante SSH o firewall. Para despliegues de producción considera contenedores orchestration y copias de seguridad del almacenamiento.
Sobre Q2BSTUDIO Q2BSTUDIO es una empresa de desarrollo de software con experiencia en aplicaciones a medida y software a medida. Somos especialistas en inteligencia artificial ciberseguridad servicios cloud aws y azure y servicios inteligencia de negocio. Ofrecemos soluciones de ia para empresas creación de agentes IA integraciones con Power BI y desarrollo de pipelines seguros para datos y modelos. Si necesitas asistencia para implementar Dyad Ollama o desplegar modelos en entornos cloud gestionados Q2BSTUDIO puede ayudarte desde el diseño arquitectónico hasta la puesta en marcha y mantenimiento.
Servicios que ofrecemos integración y consultoría para aplicaciones a medida desarrollo de software a medida implementación de modelos de inteligencia artificial despliegues en servicios cloud aws y azure seguridad y ciberseguridad para infraestructuras monitorización y optimización de coste servicios inteligencia de negocio y visualización con Power BI y diseño de agentes IA y automatización inteligente.
Conclusión Combinar Dyad con Ollama en una VM con GPU permite crear aplicaciones IA privadas y potentes sin depender de servicios SaaS. Esta arquitectura es ideal para equipos que requieren control datos privados y personalización profunda. Si buscas acelerar proyectos de inteligencia artificial o construir software a medida con garantías de seguridad y rendimiento contacta a Q2BSTUDIO para una consultoría especializada y soluciones llave en mano en IA ciberseguridad y servicios cloud aws y azure.