Resumen: los sistemas AutomL basados en el modelo de lenguaje grande reciente (LLM) demuestran capacidades impresionantes, pero enfrentan limitaciones significativas, como estrategias de exploración restringidas y un cuello de botella de ejecución severo. La exploración se ve obstaculizada por métodos de un solo disparo que carecen de diversidad y enfoques de búsqueda de árboles de Monte Carlo (MCTS) que no recombinan soluciones parciales fuertes. El cuello de botella de ejecución surge de largos ciclos de validación de código que sofocan el refinamiento iterativo. Para superar estos desafíos, presentamos a Kompeteai, un nuevo marco Automl con exploración de espacio de solución dinámica. A diferencia de los métodos de MCTS anteriores que tratan las ideas de forma aislada, Kompeteai introduce una etapa de fusión que compone los principales candidatos. Además, ampliamos el espacio de hipótesis integrando la generación de recuperación acuática (RAG), obteniendo ideas de cuadernos Kaggle y documentos ARXIV para incorporar estrategias del mundo real. Kompeteai también aborda el cuello de botella de ejecución a través de un modelo de puntuación predictivo y un método de depuración acelerado, evaluando el potencial de solución utilizando métricas de etapa temprana para evitar una ejecución costosa de código completo. Este enfoque acelera la evaluación de la tubería 6.9 veces. Kompeteai supera a los métodos principales (por ejemplo, RD-agente, asistente y maestro ML) en un promedio de 3 % en el punto de referencia Automl primario, MLE Bench. Además, proponemos Kompete-Bench para abordar las limitaciones en MLE-Bench, donde Kompeteai también logra resultados de última generación
Publicado Originalme en export.arxiv.org El 14 de agosto de 2025.
Ver Fuente Original