Resumen: El moldeo por inyección de plástico sigue siendo esencial para la fabricación moderna. Sin embargo, la optimización de los parámetros del proceso para equilibrar la calidad y la rentabilidad del producto en condiciones ambientales y económicas dinámicas sigue siendo un desafío persistente. Este estudio presenta un nuevo marco basado en el aprendizaje de refuerzo profundo (DRL) para la optimización de procesos en tiempo real en el moldeo por inyección, integrando la calidad del producto y la rentabilidad en el objetivo de control. Se desarrolló una función de beneficio para reflejar los costos de fabricación del mundo real, incorporando resina, desgaste de moho y precios de electricidad, incluidas las variaciones de tiempo de uso. Los modelos sustitutos se construyeron para predecir la calidad del producto y el tiempo de ciclo, lo que permite una capacitación eficiente fuera de línea de agentes DRL que utilizan algoritmos de optimización de políticas (SAC) y proximales (PPO) de actor suave. Los resultados experimentales demuestran que el marco DRL propuesto puede adaptarse dinámicamente a las variaciones estacionales y operativas, manteniendo consistentemente la calidad del producto al tiempo que maximiza las ganancias. En comparación con los métodos de optimización tradicionales, como los algoritmos genéticos, los modelos DRL lograron un rendimiento económico comparable con hasta 135 veces velocidades de inferencia más rápidas, lo que los hace muy adecuados para aplicaciones en tiempo real. La escalabilidad y la adaptabilidad del marco resaltan su potencial como base para la toma de decisiones inteligente y basada en datos en entornos de fabricación modernos.
Publicado Originalme en rss.arxiv.org El 18 de mayo de 2025.
Ver Fuente Original