En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Combinando aprendizaje por refuerzo y árboles de comportamiento para NPC en videojuegos con AMD Schola

Combinando aprendizaje por refuerzo y árboles de comportamiento para NPC en videojuegos con AMD Schola

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen:Si bien los rápidos avances en la comunidad de investigación del aprendizaje por refuerzo (RL) han sido notables, la adopción en los videojuegos comerciales sigue siendo lenta. En este artículo, describimos los desafíos comunes que enfrenta la comunidad de Game AI cuando usa NPC impulsados ​​por RL en la práctica, y destacamos la intersección de RL con los árboles de comportamiento tradicionales (BT) como una coyuntura crucial que debe explorarse más a fondo. Aunque la intersección BT+RL se ha sugerido en varios artículos de investigación, su adopción es poco común. Demostramos la viabilidad de este enfoque utilizando AMD Schola, un complemento para entrenar agentes de RL en Unreal Engine, mediante la creación de NPC multitarea en un entorno 3D complejo inspirado en el videojuego comercial “The Last of Us”. Proporcionamos metodologías detalladas para entrenar conjuntamente modelos de RL con BT mientras mostramos diversas habilidades.

Publicado originalmente en export.arxiv.org el 16 de octubre de 2025.
Ver fuente original

admin

Usuario de administración del sitio web