Resumen: Estudiamos la capacidad de los modelos de lenguaje para razonar sobre la divulgación de información apropiada, un aspecto central del campo en evolución de la privacidad de la agente. Mientras que los trabajos anteriores se han centrado en evaluar la capacidad de un modelo para alinearse con las decisiones humanas, examinamos el papel de la ambigüedad y la falta de contexto en el rendimiento del modelo al tomar decisiones de intercambio de información. Identificamos la ambigüedad del contexto como una barrera crucial para un alto rendimiento en las evaluaciones de privacidad. Al diseñar Camber, un marco para la desambiguación del contexto, mostramos que los fundamentos de decisión generados por el modelo pueden revelar ambigüedades y que el contexto desambigativo sistemáticamente en función de estos fundamentos conduce a mejoras de precisión significativas (hasta 13.3 % en precisión y hasta 22.3 % en recuperación), así como reducciones en la sensación rápida. En general, nuestros resultados indican que los enfoques para la desambiguación del contexto son una manera prometedora para mejorar el razonamiento de la privacidad de los agentes.
Publicado Originalme en rss.arxiv.org El 16 de junio de 2025.
Ver Fuente Original