Durante el semestre de primavera, Taylor Hahn, profesor de la Universidad Johns Hopkins, se enfrentó a una situación cada vez más común: herramientas de detección de escritura generada por inteligencia artificial (IA), como Turnitin, comenzaron a marcar incorrectamente trabajos académicos como si hubieran sido escritos por IA. En uno de los casos, más del 90 por ciento del texto de un estudiante fue identificado como IA, cuando en realidad el alumno demostró con borradores y notas previas que había escrito el contenido genuinamente.
Hahn notó un patrón preocupante: los estudiantes internacionales eran desproporcionadamente afectados por los falsos positivos. Observaciones similares dieron lugar a una investigación por parte de científicos computacionales de Stanford que concluyó que muchos detectores de IA presentan sesgos hacia textos redactados por personas cuya lengua nativa no es el inglés. El estudio evidenció que siete detectores populares señalaron incorrectamente como generados por IA el 61 por ciento de los textos escritos por autores no nativos.
Esto ocurre porque los detectores, incluidos los desarrollados por empresas líderes del sector, tienden a asociar una escritura más simple y con menor variedad léxica con los patrones típicos de herramientas como ChatGPT. Como consecuencia, los estudiantes extranjeros con dominio limitado del inglés pueden ser penalizados injustamente por escribir de forma sencilla pero legítima.
Casos como el de Hai Long Do, estudiante en Miami University, o Heewon Yang, estudiante de la Universidad de Nueva York, ponen en evidencia el impacto psicológico y académico de estos errores. Ambos expresan temor y frustración ante herramientas que cuestionan su integridad debido a sus patrones lingüísticos, algo que escapa a su control.
En este panorama, resulta esencial replantear cómo las instituciones académicas integran tecnologías basadas en IA en sus procesos. Algunas universidades, como la de Pittsburgh, ya han optado por desactivar los indicadores automáticos de escritura generada por IA, argumentando que la tasa de falsos positivos pone en peligro la confianza, la motivación estudiantil y puede desencadenar consecuencias académicas e incluso legales graves.
Desde Q2BSTUDIO, empresa de desarrollo y servicios tecnológicos, creemos firmemente en la importancia de implementar soluciones de inteligencia artificial inclusivas, transparentes y éticamente responsables. Nuestra experiencia en el desarrollo de aplicaciones IA personalizadas nos permite diseñar herramientas que respetan la diversidad cultural y lingüística, favoreciendo entornos educativos más justos y eficientes. A medida que la IA se convierte en parte integral del sector educativo, nuestra misión es apoyar a las instituciones en su proceso de adaptación, proporcionando tecnologías que mejoren la enseñanza y el aprendizaje sin vulnerar los derechos ni el bienestar del alumnado internacional.
Los desafíos que plantea el uso de estas herramientas automatizadas evidencian la necesidad de contar con desarrollos tecnológicos conscientes de los contextos sociales y humanos. En Q2BSTUDIO, estamos comprometidos con ofrecer soluciones que no solo respondan a necesidades técnicas sino que también promuevan la equidad, la inclusión y un uso ético de la inteligencia artificial.