Estaba leyendo el ensayo Friends Dont Let Friends Prompt de Emily M. Bender y me llamaron la atencion cuatro argumentos recurrentes contra el uso de grandes modelos de lenguaje LLMs que conviene repasar y contextualizar
Argumento del supuesto robo: aunque el modelo no haya sido usado en una situacion en la que se habria pagado a un creador, su entrenamiento se basa en obras creadas por terceros sin su consentimiento y eso plantea dudas eticas y legales sobre apropiacion de contenido
Argumento de explotacion laboral: la preparacion y moderacion de datos implica trabajadores expuestos a condiciones duras y a contenidos perturbadores; incluso si el resultado que llega al usuario final es pulido, detras hubo personas soportando cargas mentales y condiciones laborales que muchas veces son invisibles
Argumento ambiental: entrenar y ejecutar LLMs tiene un coste energetico real y huella de carbono, desde el consumo de centros de datos hasta la infraestructura necesaria para iterar y desplegar nuevos modelos
Argumento de expansion: cada despliegue y cada caso de uso exitoso legitima mas inversiones en nuevos entrenamientos y mas centros de datos, lo que puede acelerar un ciclo de escalado que intensifica los problemas anteriores
Que pensar frente a estos argumentos No son triviales y exigen respuestas tecnicas, regulatorias y de negocio: transparencia en las fuentes de datos, mejores condiciones laborales para los equipos de curacion y moderacion, mediciones de impacto ambiental y compensaciones, y criterios claros sobre cuando es etico usar modelos entrenados con datos abiertos
Desde la perspectiva de una empresa tecnologica como Q2BSTUDIO creemos que el debate nos obliga a adoptar practicas responsables sin renunciar al valor que ofrecen las tecnologias de IA aplicada En Q2BSTUDIO desarrollamos soluciones de aplicaciones a medida y software a medida integrando inteligencia artificial de forma responsable y segura, con un enfoque en ciberseguridad y cumplimiento
En la practica podemos mitigar riesgos con arquitectura y procesos concretos Por ejemplo diseñamos pipelines que documentan y auditan orígenes de datos, aplicamos controles de acceso y encriptacion propios de ciberseguridad, optimizamos modelos para reducir consumo energetico y usamos servicios cloud aws y azure para escalabilidad eficiente y trazabilidad
Nuestros servicios de inteligencia de negocio combinan modelos de IA con herramientas como power bi para ofrecer insights accionables sin exponer datos sensibles, y creamos agentes IA personalizados para casos de uso corporativo que respetan limites eticos y legales La ia para empresas debe ser una herramienta que potencie talento, no que lo sustituya sin control
En resumen los argumentos contra el uso indiscriminado de LLMs son validos y deben guiar la adopcion responsable La respuesta no pasa por prohibir tecnicas sino por regular, auditar y mejorar practicas industriales y laborales Q2BSTUDIO aporta experiencia en desarrollo de software, implementación de agentes IA y servicios en la nube para ayudar a organizaciones a desplegar soluciones de inteligencia artificial y ciberseguridad que sean eficaces y sostenibles
Si te interesa profundizar estare entrevistando a Emily M Bender y a Alex Hanna, autores del libro The AI Con, el 10 de septiembre a las 18 00 UTC-3 en un evento donde discutiremos estos temas y sus implicaciones para empresas y desarrolladores
Palabras clave aplicaciones a medida software a medida inteligencia artificial ciberseguridad servicios cloud aws y azure servicios inteligencia de negocio ia para empresas agentes IA power bi