Desde hace más de una década, la entrevista de programación ha sido el pilar de la selección técnica. Cada empresa afinaba su propio ritual con rondas de diseño de sistemas o sesiones de cultura, pero el ejercicio de codificar en directo era la constante. Eso está cambiando muy rápido.
Hoy, con modelos de lenguaje capaces de generar código casi correcto en segundos, la entrevista tradicional se ha vuelto obsoleta y trivial. En remoto, muchas personas ya usan asistentes como ChatGPT para resolver ejercicios. Y no se trata solo de quien hace trampa: el problema es más profundo.
La grieta fundamental que los LLMs han dejado al descubierto es que estas entrevistas casi nunca evaluaron la verdadera capacidad de resolver problemas. Durante años han medido memorización de patrones tipo LeetCode más que pensamiento ingenieril. En el mejor de los casos comprobaban la habilidad de convertir ideas en lógica ejecutable, justo la tarea que ahora automatiza un LLM. Entonces, ¿qué habilidad se está midiendo realmente?
Además, la correlación con el rendimiento real siempre fue débil. La ingeniería de software en el día a día exige comprender bases de código complejas, aprender tecnologías con rapidez, terminar proyectos con calidad, tomar decisiones de arquitectura sostenibles y colaborar con otras personas. Nada de esto se refleja en una sesión de 45 minutos resolviendo un algoritmo aislado.
Por qué los LLMs han sentenciado estas entrevistas: en remoto no hay forma fiable de impedir el uso de IA y, siendo honestos, tampoco tiene sentido. En presencial, sigues evaluando habilidades que no son las que marcarán la diferencia en el trabajo, forzando a programar a mano lo que en la práctica se resolvería con apoyo de IA. En pizarra, acabas midiendo memoria y caligrafía en una era donde lo valioso es la colaboración humano IA.
La solución es evidente y a menudo incomoda de admitir: los LLMs no son la muerte de la evaluación técnica, son la oportunidad para por fin medir lo que importa. El trabajo del ingeniero es construir software. Usábamos entrevistas de código como un proxy porque no era viable levantar proyectos completos en el tiempo de una entrevista. Con IA generativa, esa restricción desaparece. Hoy puedes levantar un proyecto funcional en horas.
Propuesta práctica: eliminar por completo las entrevistas de codificación y sustituirlas por un proyecto acotado en tiempo, con la expectativa explícita de que la persona candidata usará herramientas de IA.
Cómo se ve en la práctica: nada de tareas que se alargan semanas. Diseña una construcción timeboxed que refleje el trabajo real. Proyectos pequeños pero completos, como un blog que sirva contenido en markdown con temas intercambiables, o invita a la persona a escoger su producto favorito y crear un prototipo básico. Para startups esto es oro: la etapa temprana es iteración veloz de POCs, y necesitas gente que avance sin sobrerreingeniería ni bloqueos por decisiones menores.
Qué cambia con este enfoque: verás habilidades de ingeniería reales, desde cómo montan el entorno, estructuran el código para mantenibilidad, gestionan dependencias y build, hasta un despliegue básico. Evaluarás colaboración con IA de forma natural, una competencia que ya otorga una ventaja enorme. Y obtendrás diseño de sistemas sin forzarlo: elección de base de datos, trade offs, extensibilidad y manejo de errores emergen del proyecto.
Por qué antes no era viable y ahora sí: el tiempo, el abandono de candidaturas y la capacidad de proceso lo impedían. Los LLMs han cambiado la ecuación; lo que antes llevaba una semana ahora cabe en horas. Si comparas con 4 o 5 rondas técnicas más desplazamientos, un único proyecto de 4 a 6 horas resulta incluso más eficiente que el maratón tradicional.
Qué se observa en el mercado: algunas compañías ya están virando en esta dirección y reportan mejores resultados, menos desajustes y expectativas más claras. La resistencia es cultural, no técnica. Lo que se ha hecho durante años parece riguroso, pero rara vez predice el desempeño.
Las empresas que se adapten primero ganarán. Las entrevistas clásicas terminarán, queramos o no. Las personas candidatas ya usan IA. La cuestión no es prohibirla, sino diseñar evaluaciones que la integren. Quien pase a evaluaciones basadas en proyectos atraerá mejor talento y decidirá con más precisión. Quien se aferre a ejercicios de memorización seguirá midiendo lo que menos importa.
El futuro de las entrevistas técnicas no va de luchar contra la IA, sino de abrazarla para crear evaluaciones más reales de lo que implica la ingeniería moderna. Esto no es una moda, es la nueva realidad. Tu proceso de selección se adaptará o quedará irrelevante.
En Q2BSTUDIO impulsamos esta visión con un enfoque integral: desarrollo de software a través de aplicaciones a medida y software a medida, integración de inteligencia artificial y agentes IA en los flujos de trabajo, ciberseguridad y pruebas de pentesting, servicios cloud aws y azure, así como servicios inteligencia de negocio y power bi para convertir datos en decisiones. Acompañamos a equipos a diseñar evaluaciones por proyectos, automatizar pipelines y crear prototipos reales, midiendo competencias de entrega end to end y colaboración con IA.
Si tu organización quiere adoptar evaluaciones centradas en proyectos, acelerar la entrega y escalar capacidades con IA, explora cómo potenciamos IA para empresas y cómo construimos software a medida alineado con objetivos de negocio y estándares de ciberseguridad. El siguiente paso en selección técnica y delivery ya está aquí.