Resumen: Los modelos de lenguajes grandes (LLM) actualmente exhiben bajas tasas de éxito en la generación de infraestructura como código (IaC) correcta y alineada con la intención. Esta investigación investigó métodos para mejorar la generación de IaC basada en LLM, específicamente para Terraform, mediante la inyección sistemática de conocimiento de configuración estructurada. Para facilitar esto, se mejoró significativamente un punto de referencia IaC-Eval existente con emulación de nube y análisis de errores automatizado. Además, se desarrolló una nueva taxonomía de errores para la generación de códigos IaC asistida por LLM. Se implementaron y evaluaron una serie de técnicas de inyección de conocimiento, progresando desde la generación aumentada de recuperación ingenua (RAG) hasta enfoques Graph RAG más sofisticados. Estos incluyeron el enriquecimiento semántico de los componentes del gráfico y el modelado de dependencias entre recursos. Los resultados experimentales demostraron que, si bien el rendimiento inicial del LLM fue deficiente (27,1 % de éxito general), la inyección de conocimiento de configuración estructurada aumentó el éxito de la validación técnica al 75,3 % y el éxito general al 62,6 %. A pesar de estos avances en la corrección técnica, la alineación de la intención se estancó, revelando una “brecha entre corrección y congruencia” donde los LLM pueden convertirse en “codificadores” competentes pero siguen siendo “arquitectos” limitados para cumplir con la intención matizada del usuario.
Publicado originalmente en export.arxiv.org el 18 de diciembre de 2025.
Ver fuente original
