Resumen: Modelos de idiomas grandes (LLM) a menudo luchan por ofrecer respuestas precisas y procesables cuando la información proporcionada por el usuario está incompleta o mal especificada. Proponemos un nuevo paradigma de interacción, primero pregunte y luego respondemos (FATA), en el que, a través de palabras rápidas, los LLM se guían para generar proactivamente preguntas complementarias multidimensionales para los usuarios antes de la generación de respuesta. Posteriormente, al integrar la información complementaria proporcionada por el usuario con la consulta original a través de técnicas de incrustación sofisticadas, logramos una calidad y relevancia de respuesta sustancialmente mejorada. A diferencia de los enfoques de aclaración existentes, como el marco de almeja orientado a la ambigüedad y el método de autoestima autointerrogación, FATA enfatiza la integridad (más allá de la mera desambiguación) y la participación del usuario (invitando a la entrada humana en lugar de confiar únicamente en el razonamiento interno modelo). También adopta una estrategia de solo vuelta: todas las preguntas aclaratorias se producen a la vez, reduciendo así la longitud del diálogo y mejorando la eficiencia. Conceptualmente, FATA utiliza el poder de razonamiento de los LLM para andamios de expresión del usuario, lo que permite a los usuarios no expertos formulan consultas más integrales y contextualmente relevantes. Para evaluar FATA, construimos un punto de referencia de dominios múltiples y lo comparamos con dos controles: un aviso de referencia (B-PROMPT) y una solicitud de experto con contexto mejorada (C-ProMPT). Los resultados experimentales muestran que FATA supera a B-PROMPT en aproximadamente un 40% en métricas agregadas y exhibe un coeficiente de variación 8% más bajo que C-Prompt, lo que indica una estabilidad superior.
Publicado Originalme en export.arxiv.org El 12 de agosto de 2025.
Ver Fuente Original
