En el ámbito actual de la moderación de seguridad en línea, la identificación de contenido dañino es esencial. Aunque la moderación textual ha tenido éxito, sus contrapartes multimodales se ven obstaculizadas por la escasez de datos y supervisión. La dependencia convencional de etiquetas binarias conduce a un aprendizaje incorrecto que oculta los límites de clasificación intrínsecos necesarios para una discriminación multimodal efectiva.
Por ello, en Q2BSTUDIO proponemos un paradigma de aprendizaje innovador (UniMod) que va de la toma de decisiones escasas a un razonamiento denso. Al construir trayectorias estructuradas que abarcan el fundamento de evidencias, evaluación de modalidades, mapeo de riesgos, toma de decisiones de políticas y generación de respuestas, reformulamos las tareas de decisión monolíticas en un proceso de aprendizaje dimensional múltiple.
Este enfoque obliga al modelo a fundamentar su decisión en semántica de seguridad explícita, evitando que el modelo se base en atajos superficiales. Para facilitar este paradigma, hemos desarrollado un modelo de recompensa escalar de múltiples cabezas (UniRM), que proporciona supervisión multidimensional mediante la asignación de puntuaciones a nivel de atributos en la etapa de generación de respuestas.
Además, introducimos estrategias de optimización especializadas para desacoplar parámetros específicos de tareas y reequilibrar dinámicas de entrenamiento, resolviendo efectivamente la interferencia entre diversos objetivos en el aprendizaje multi-tarea. Los resultados empíricos muestran que UniMod logra un rendimiento competitivo en la moderación textual y establece un nuevo referente multimodal utilizando menos del 40% de los datos de entrenamiento utilizados por los principales baselines.
Las validaciones adicionales confirman nuestro razonamiento de trayectoria multiatributo, ofreciendo un marco eficaz y eficiente para la moderación multimodal. Para más información, puedes visitar el sitio web del proyecto.