Resumen: Los problemas difíciles de toma de decisiones abundan en diversas disciplinas y dominios. La proliferación de técnicas generativas, especialmente modelos de lenguaje grande (LLMS), ha entusiasmado el interés en usarlas para el apoyo a la decisión. Sin embargo, los LLM aún no pueden resolver la falta en sus datos de entrenamiento, lo que lleva a alucinaciones. La generación de recuperación aumentada (RAG) mejora las LLM incorporando la recuperación de información externa, reduciendo las alucinaciones y mejorando la precisión. Sin embargo, el RAG y los métodos relacionados son solo soluciones parciales, ya que pueden carecer de acceso a todas las fuentes necesarias o la información clave faltante. Incluso los problemas cotidianos a menudo desafían las habilidades de LLMS. Enviar indicaciones más largas con contexto y ejemplos es un enfoque para abordar las brechas de conocimiento, pero el diseño de indicaciones efectivas no es trivial y puede no capturar modelos mentales complejos de expertos en dominios. Para las tareas con información crítica faltante, los LLM son insuficientes, al igual que muchos sistemas existentes mal representados en los documentos disponibles. Este documento explora cómo los LLM pueden hacer que la toma de decisiones sea más eficiente, utilizando un ejemplo de ejecución de evaluar si responder a una llamada para propuestas. Proponemos una tecnología basada en el diálogo optimizado de la máquina humana y las funciones booleanas monótonas y con valor K para descubrir un modelo mental experto personal (EMM) computacionalmente manejable de la toma de decisiones. Nuestro algoritmo EMM para la ingeniería rápida de LLM tiene cuatro pasos: (1) identificación de factores, (2) estructuración jerárquica de factores, (3) generar una especificación de modelo mental experto generalizado y (4) generar un modelo mental experto generalizado detallado a partir de esa especificación.
Publicado Originalme en export.arxiv.org El 15 de septiembre de 2025.
Ver Fuente Original