Resumen: Los modelos de lenguaje grande (LLM) ofrecen una forma prometedora de simular respuestas humanas a encuestas, reduciendo potencialmente el costo de la recopilación de datos a gran escala. Sin embargo, los métodos de disparo cero existentes adolecen de sensibilidad inmediata y baja precisión, mientras que los enfoques de ajuste fino convencionales se ajustan principalmente a las distribuciones del conjunto de entrenamiento y luchan por producir resultados más precisos que el conjunto de entrenamiento en sí, lo que se desvía del objetivo original de usar LLM para simular respuestas de encuestas. Sobre la base de esta observación, presentamos la Alineación de cambios de distribución (DSA), un método de ajuste fino de dos etapas que alinea tanto las distribuciones de salida como los cambios de distribución en diferentes entornos. Al aprender cómo cambian estas distribuciones en lugar de ajustar los datos de entrenamiento, DSA puede proporcionar resultados sustancialmente más cercanos a la distribución real que los datos de entrenamiento. Empíricamente, DSA supera consistentemente a otros métodos en cinco conjuntos de datos de encuestas públicas. Además, llevamos a cabo una comparación exhaustiva que cubre la precisión, la solidez y el ahorro de datos. DSA reduce los datos reales requeridos entre un 53,48-69,12%, demostrando su efectividad y eficiencia en la simulación de encuestas.
Publicado originalmente en export.arxiv.org el 27 de octubre de 2025.
Ver fuente original
