Biblioteca122.739 documentos en línea

Artículo

Dynamic Path Planning of Unknown Environment Based on Deep Reinforcement LearningPlanificación dinámica de rutas en entornos desconocidos basada en aprendizaje profundo por refuerzo

Resumen

La planificación de trayectorias dinámicas en un entorno desconocido siempre ha sido un desafío para los robots móviles. En este documento, aplicamos el aprendizaje profundo de refuerzo doble Q-network (DDQN) propuesto por DeepMind en 2016 a la planificación de trayectorias dinámicas en un entorno desconocido. Se diseñan la función de recompensa y castigo y el método de entrenamiento para la inestabilidad de la etapa de entrenamiento y la escasez del espacio de estado del entorno. En diferentes etapas de entrenamiento, ajustamos dinámicamente la posición de inicio y la posición objetivo. Con la actualización de la red neuronal y el aumento de la probabilidad de regla codiciosa, el espacio local buscado por el agente se expande. Se utiliza el módulo Pygame en PYTHON para establecer entornos dinámicos. Considerando la señal de lidar y la posición objetivo local como entradas, se utilizan redes neuronales convolucionales (CNNs) para generalizar el estado ambiental. El algoritmo Q-learning mejora la capacidad de evitar obstáculos dinámicos y la planificación local de los agentes en el entorno. Los resultados muestran que, después de entrenar en diferentes entornos dinámicos y probar en un nuevo entorno, el agente puede llegar con éxito a la posición objetivo local en un entorno dinámico desconocido.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento