En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Aprendizaje por refuerzo profundo consciente de las previsiones para una programación eficiente de la carga eléctrica en granjas lecheras

Aprendizaje por refuerzo profundo consciente de las previsiones para una programación eficiente de la carga eléctrica en granjas lecheras

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen:La producción lechera es un sector intensivo en energía que depende en gran medida de la red eléctrica. Con la creciente integración de las energías renovables, la gestión de la energía sostenible se ha vuelto esencial para reducir la dependencia de la red y apoyar el Objetivo de Desarrollo Sostenible 7 de las Naciones Unidas sobre energía limpia y asequible. Sin embargo, la naturaleza intermitente de las energías renovables plantea desafíos a la hora de equilibrar la oferta y la demanda en tiempo real. Por lo tanto, la programación de carga inteligente es crucial para minimizar los costos operativos y al mismo tiempo mantener la confiabilidad. El aprendizaje por refuerzo se ha mostrado prometedor a la hora de mejorar la eficiencia energética y reducir los costes. Sin embargo, la mayoría de los métodos de programación basados ​​en RL suponen un conocimiento completo de los precios o la generación futuros, lo cual no es realista en entornos dinámicos. Además, las variantes estándar de PPO se basan en umbrales de recorte fijos o de divergencia de KL, lo que a menudo conduce a una capacitación inestable bajo tarifas variables. Para abordar estos desafíos, este estudio propone un marco de aprendizaje por refuerzo profundo para una programación de carga eficiente en granjas lecheras, centrándose en el almacenamiento de baterías y el calentamiento de agua bajo restricciones operativas realistas. El PPO Forecast Aware propuesto incorpora pronósticos a corto plazo de la demanda y la generación renovable utilizando una calibración residual basada en la hora del día y el mes, mientras que la variante PID KL PPO emplea un controlador derivado integral proporcional para regular la divergencia de KL para actualizaciones de políticas estables de forma adaptativa. Basado en datos de granjas lecheras del mundo real, el método logra un costo de electricidad hasta un 1% menor que PPO, un 4,8% que DQN y un 1,5% que SAC. Para la programación de baterías, PPO reduce las importaciones de la red en un 13,1 %, lo que demuestra escalabilidad y eficacia para la gestión energética sostenible en la ganadería lechera moderna.

Publicado originalmente en export.arxiv.org el 13 de enero de 2026.
Ver fuente original

admin

Usuario de administración del sitio web