En un artículo anterior demostramos cómo la documentación LLM-First mejora la capacidad de un modelo grande de lenguaje para recuperar información, logrando mejoras medibles en precisión +5.8% y eficiencia +40%. Ahora aplicamos ese mismo rigor estructural a la generación de código para convertir solicitudes vagas en componentes listos para producción.
Un ejemplo habitual es la petición escribe una función JavaScript getUserData(userId) que obtenga datos de usuario desde /api/users/{userId}. Un LLM suele generar una implementación sintácticamente correcta pero ingenua que asume un entorno perfecto, por ejemplo una llamada fetch sin reintentos, sin timeout y sin caché. En el mundo real ese código es frágil frente a errores transitorios de red, fallos del servidor o latencia, y por tanto no es adecuado para producción.
La causa raíz de esa fragilidad es la ambigüedad en el prompt. Para solucionarlo proponemos 2WHAV, un marco que traduce una petición simple en una especificación de ingeniería detallada. 2WHAV es una aplicación directa de los principios LLM-First: sustituye el prosaísmo por jerarquía, formatos estructurados y restricciones explícitas que guían al LLM mediante un flujo de trabajo de ingeniería en vez de un ejercicio de escritura creativa.
El flujo práctico recomendado usa al LLM como socio para construir la especificación. Paso 1 proporciona contexto y la estructura del marco. Paso 2 envía la petición inicial y pide al LLM que la expanda con 2WHAV. Este proceso en dos pasos aprovecha el conocimiento del modelo sobre patrones de diseño para convertir un objetivo de alto nivel en un contrato técnico completo.
2WHAV descompone la solicitud en secciones claras WHAT WHERE HOW AUGMENT VERIFY. WHAT define el objetivo y la salida esperada. WHERE sitúa el componente en la arquitectura cuando es necesario. HOW especifica la interfaz y las restricciones API. AUGMENT contiene directivas estratégicas no funcionales como resiliencia y rendimiento. VERIFY propone una lista de comprobación para validar la entrega.
Un ejemplo de AUGMENT para el caso getUserData incluiría instrucciones como reintentos automáticos hasta 3 intentos en errores 5xx, backoff exponencial con retrasos crecientes, timeout de operación tras 5 segundos y caché en memoria con TTL de 5 minutos. Con una especificación así, el LLM produce un componente muy distinto: reintentos, backoff, timeout y caching implementados conforme a buenas prácticas, y una respuesta estructurada que facilita el manejo por parte del código cliente.
El resultado no es solo código más robusto, sino un contrato técnico verificable. La sección VERIFY permite marcar ítems como reintentos, backoff, timeout y caché, y comprobar que la forma de retorno coincide con el formato acordado, por ejemplo un objeto que indique estado success o error y contenga datos o información del error.
¿Merece la pena el coste de especificar tan detalladamente cada función? 2WHAV es modular para gestionar ese trade off. Para tareas simples y no críticas basta un prompt reducido con WHAT HOW y VERIFY. Para componentes con lógica de decisión conviene añadir WHERE. Para sistemas críticos en producción la versión completa incluyendo AUGMENT es justificable porque el coste de la falla es alto. El objetivo no es maximizar la longitud del prompt sino ajustar el rigor al nivel de complejidad y criticidad del componente.
Este enfoque cambia la colaboración entre desarrollador y LLM. El desarrollador actúa como arquitecto, definiendo requisitos de alto nivel y revisando la especificación. El LLM actúa como ingeniero senior, traduciendo esa especificación en una implementación robusta y proponiendo mejoras. La transición de conversaciones ambiguas a especificaciones formales permite que los modelos produzcan código que no solo compila sino que resiste las exigencias operativas reales.
En Q2BSTUDIO somos especialistas en convertir estas metodologías en resultados tangibles. Como empresa de desarrollo de software y aplicaciones a medida ofrecemos soluciones integrales que combinan software a medida, inteligencia artificial aplicada a empresas, seguridad y servicios cloud. Si su objetivo es construir aplicaciones robustas y escalables podemos ayudarle a diseñar tanto la especificación técnica como la implementación práctica, desde la arquitectura hasta la entrega continua.
Si necesita desarrollar proyectos que integren agentes IA, automatización de procesos o capacidades de inteligencia de negocio podemos acompañarle, por ejemplo en proyectos de Power BI y análisis avanzado. Vea nuestro enfoque para crear aplicaciones a medida y cómo aplicamos modelos de inteligencia artificial para empresas para transformar requisitos vagos en productos listos para producción. También cubrimos ciberseguridad y pentesting, servicios cloud aws y azure, y servicios de inteligencia de negocio para maximizar el valor de sus datos.
En resumen, 2WHAV aporta un camino práctico para llevar prompts imprecisos a especificaciones ejecutables, mejorando la confiabilidad del código generado por LLM y facilitando la adopción de prácticas de ingeniería en entornos de producción. Adoptar este marco le permite crear software a medida más seguro, eficiente y alineado con los objetivos de negocio.