Resumen: Proponemos un marco basado en agentes para el filtrado personalizado de comunicaciones categorizadas de acoso en redes sociales en línea. A diferencia de los sistemas de moderación global que aplican reglas de filtrado uniformes, nuestro enfoque modela niveles de tolerancia y preferencias específicos del usuario a través de agentes de filtrado adaptativos. Estos agentes aprenden de los comentarios de los usuarios y ajustan dinámicamente los umbrales de filtrado en múltiples categorías de acoso, incluido el contenido ofensivo, abusivo y que incita al odio. Implementamos y evaluamos el marco utilizando técnicas de clasificación supervisadas y datos de interacción del usuario simulados. Los resultados experimentales demuestran que los agentes adaptativos mejoran la precisión del filtrado y la satisfacción del usuario en comparación con los modelos estáticos. El sistema propuesto ilustra cómo la personalización basada en agentes puede mejorar la moderación del contenido y al mismo tiempo preservar la autonomía del usuario en entornos sociales digitales.
Publicado originalmente en export.arxiv.org el 16 de marzo de 2026.
Ver fuente original
