Biblioteca122.294 documentos en línea

Artículo

Hybrid Online and Offline Reinforcement Learning for Tibetan Jiu ChessAprendizaje por refuerzo híbrido en línea y fuera de línea para el ajedrez tibetano Jiu.

Resumen

En este estudio, se aplican los algoritmos híbridos estado-acción-recompensa-estado-acción (SARSA) y Q-learning a diferentes etapas de un límite superior aplicado a la búsqueda en árbol para el ajedrez tibetano Jiu. Además, se utiliza Q-learning para actualizar todos los nodos en el camino de búsqueda al finalizar cada partida. Se propone una estrategia de aprendizaje que utiliza los algoritmos SARSA y Q-learning combinando conocimiento del dominio para una función de retroalimentación en las etapas de diseño y batalla. Se emplea una red neuronal profunda mejorada basada en ResNet18 para el entrenamiento de autojuego. Los resultados experimentales muestran que el aprendizaje por refuerzo híbrido en línea y fuera de línea con una red neuronal profunda puede mejorar la eficiencia de aprendizaje y la capacidad de comprensión de los programas de juego para el ajedrez tibetano Jiu.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento