Resumen: Los agentes de IA encarnados deben inferir y actuar de manera interpretable en diversos objetivos y preferencias humanas que no están predefinidas. Para formalizar esta configuración, presentamos juegos de asistencia universitarios abiertos (OU-A-AGS), un marco en el que el agente debe razonar sobre un espacio ilimitado y en evolución de los posibles objetivos. En este contexto, presentamos buenos (objetivos del diálogo abierto), un método en línea eficiente en datos que extrae objetivos en forma de lenguaje natural durante una interacción con un humano, e infiere una distribución sobre los objetivos del lenguaje natural. Good solicita a un LLM que simule a los usuarios con diferentes intentos complejos, utilizando sus respuestas para realizar una inferencia probabilística sobre los objetivos candidatos. Este enfoque permite una rica representación de objetivos y la estimación de incertidumbre sin requerir grandes conjuntos de datos fuera de línea. Evaluamos bien en un dominio de compras de comestibles basado en texto y en un entorno de robótica doméstica simulada con texto (AI2THOR), utilizando perfiles de usuario sintéticos. Nuestro método supera una línea de base sin el seguimiento de objetivos explícitos, como lo confirman las evaluaciones humanas y basadas en LLM.
Publicado Originalme en export.arxiv.org El 21 de agosto de 2025.
Ver Fuente Original