Este artículo analiza por qué la intervención humana sigue siendo esencial en las pruebas de software a pesar de los avances en inteligencia artificial. Aunque la IA y los Modelos de Lenguaje Grande (LLMs) se utilizan cada vez más en la codificación a través del 'vibe coding', todavía se necesitan seres humanos para supervisar, especialmente en las pruebas de usabilidad y accesibilidad. Los LLMs están entrenados para entender entradas imperfectas y rellenar vacíos, lo que los convierte en malos probadores de usabilidad, ya que no pueden identificar lo que es poco intuitivo para los usuarios humanos. En las pruebas de accesibilidad, los LLMs carecen de la capacidad para reconocer problemas como el mal contraste de colores o los problemas de navegación por teclado. Además, los humanos deben gestionar la evaluación del riesgo de las pruebas y la responsabilidad, ya que la IA no puede tomar decisiones justificables. El artículo concluye que aunque la IA puede ayudar con la preparación de datos de prueba, la documentación y el análisis, la experiencia humana sigue siendo crucial porque el software de calidad debe servir en última instancia a los usuarios humanos.