Resumen:La evaluación equitativa de la contribución individual en equipos sigue siendo un desafío persistente, donde el conflicto y la disparidad en la carga de trabajo pueden resultar en una evaluación injusta del desempeño, que a menudo requiere intervención manual, un proceso costoso y desafiante. Examinamos las características de las herramientas existentes e identificamos una brecha en los métodos de resolución de conflictos y la integración de la IA. Para abordar esto, proponemos un marco y un diseño de implementación para una novedosa herramienta mejorada con IA que ayude en la investigación de disputas. El marco organiza artefactos heterogéneos (presentaciones (código, texto, medios), comunicaciones (chat, correo electrónico), registros de coordinación (registros de reuniones, tareas), evaluaciones de pares e información contextual) en tres dimensiones con nueve puntos de referencia: contribución, interacción y rol. Las medidas objetivas se normalizan, se agregan por dimensión y se combinan con medidas de desigualdad (índice de Gini) para sacar a la luz los marcadores de conflicto. Una arquitectura de modelo de lenguaje grande (LLM) realiza un análisis validado y contextual de estas medidas para generar juicios de asesoramiento interpretables y transparentes. Argumentamos la viabilidad bajo la política institucional y legal actual, y describimos análisis prácticos (sentimentales, fidelidad de tarea, recuento de palabras/líneas, etc.), salvaguardias de sesgo, limitaciones y desafíos prácticos.
Publicado originalmente en export.arxiv.org el 11 de noviembre de 2025.
Ver fuente original
