Resumen: La ingeniería moderna se basa cada vez más en grandes conjuntos de datos generados por experimentos y simulaciones, impulsando una creciente demanda de estrategias de modelado eficientes, confiables y ampliamente aplicables. También existe un mayor interés en el desarrollo de enfoques basados en datos, particularmente modelos de redes neuronales, para una predicción y análisis efectivos de conjuntos de datos científicos. Los métodos tradicionales basados en datos con frecuencia implican una intervención manual extensa, limitando su capacidad para escalar de manera efectiva y generalizar a diversas aplicaciones. En este estudio, proponemos una tubería innovadora que utiliza agentes de modelo de lenguaje grande (LLM) para automatizar el modelado y el análisis basados en datos, con un énfasis particular en las tareas de regresión. Evaluamos dos marcos de agentes LLM: un sistema de múltiples agentes con agentes colaborativos especializados y un sistema de agente único basado en el paradigma de razonamiento y actuación (React). Ambos marcos manejan de forma autónoma preprocesamiento de datos, desarrollo de redes neuronales, capacitación, optimización de hiperparameter y cuantificación de incertidumbre (UQ). Validamos nuestro enfoque utilizando un punto de referencia de predicción de flujo de calor crítico (CHF), que involucra aproximadamente 25,000 puntos de datos experimentales del conjunto de datos de referencia de la OCDE/NEA. Los resultados indican que nuestro modelo desarrollado por el agente LLM supera las tablas de búsqueda de CHF tradicionales y ofrece precisión predictiva y UQ a la par con los modelos de red neuronales bayesianas de última generación, expertos humanos. Estos resultados subrayan el potencial significativo de los agentes basados en LLM para automatizar tareas de modelado de ingeniería complejas, reduciendo en gran medida la carga de trabajo humano al tiempo que cumple o excede los estándares existentes de rendimiento predictivo.
Publicado Originalme en export.arxiv.org El 2 de octubre de 2025.
Ver Fuente Original