En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Memo-SQL: descomposición estructurada y autocorrección basada en la experiencia para NL2SQL sin capacitación

Memo-SQL: descomposición estructurada y autocorrección basada en la experiencia para NL2SQL sin capacitación

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Los sistemas NL2SQL existentes enfrentan dos limitaciones críticas: (1) dependen del aprendizaje en contexto solo con ejemplos correctos, pasando por alto la rica señal en pares históricos de corrección de errores que podrían guiar una autocorrección más sólida; y (2) los enfoques de escalamiento en el tiempo de prueba a menudo descomponen las preguntas de manera arbitraria, produciendo candidatos SQL casi idénticos en todas las ejecuciones y disminuyendo las ganancias del conjunto. Además, estos métodos adolecen de un marcado equilibrio entre precisión y eficiencia: el alto rendimiento exige un cálculo excesivo, mientras que las variantes rápidas comprometen la calidad. Presentamos Memo-SQL, un marco sin capacitación que aborda estos problemas a través de dos ideas simples: descomposición estructurada y autocorrección consciente de la experiencia. En lugar de dejar la descomposición al azar, aplicamos tres estrategias claras, entidad-sabia, jerárquica y atómica secuencial, para fomentar el razonamiento diverso. Para la corrección, creamos una memoria dinámica tanto de consultas exitosas como de pares históricos de corrección de errores, y utilizamos indicaciones aumentadas de recuperación para poner ejemplos relevantes en contexto en el momento de la inferencia, sin necesidad de ajustes finos ni API externas. En BIRD, Memo-SQL logra una precisión de ejecución del 68,5%, estableciendo un nuevo estado del arte entre los métodos abiertos sin ajuste fino, mientras utiliza más de 10 veces menos recursos que los enfoques TTS anteriores.

Publicado originalmente en export.arxiv.org el 15 de enero de 2026.
Ver fuente original

admin

Usuario de administración del sitio web