Resumen: Las plataformas de redes sociales permiten una conectividad instantánea y ubicua y son esenciales para la interacción social y la comunicación en nuestra sociedad tecnológica. Además de sus ventajas, estas plataformas han dado lugar a comportamientos negativos en la comunidad en línea, el llamado ciberacoso. A pesar de las muchas obras que involucran inteligencia artificial generativa (IA) en la literatura últimamente, quedan oportunidades para estudiar su rendimiento aparte de las estrategias de aprendizaje cero/de pocos disparos. En consecuencia, proponemos una solución innovadora y en tiempo real para la detección de ciberacoso que aprovecha los modelos de aprendizaje automático basado en la corriente (ML) capaces de procesar las muestras entrantes de forma incomable y modelos de idiomas grandes (LLM) para la ingeniería de características para abordar la naturaleza evolutiva de los discursos abusivos y de odio en línea. Se proporciona un tablero de explicación para promover la confiabilidad, confiabilidad y responsabilidad del sistema. Los resultados en los datos experimentales informan un rendimiento prometedor cercano al 90 % en todas las métricas de evaluación y superando las obtenidas por trabajos competidores en la literatura. En última instancia, nuestra propuesta contribuye a la seguridad de las comunidades en línea mediante la detección oportuna de un comportamiento abusivo para prevenir el acoso duradero y reducir las consecuencias negativas en la sociedad.
Publicado Originalme en rss.arxiv.org El 7 de mayo de 2025.
Ver Fuente Original