En el control adaptativo de señales de tráfico (ATSC), el aprendizaje por refuerzo (RL) es un tema de investigación de vanguardia, combinado con redes neuronales profundas para mejorar aún más su capacidad de aprendizaje. El aprendizaje por refuerzo multiagente distribuido (MARL) puede evitar este tipo de problema al observar algunas áreas de cada RL local en la compleja área de tráfico en el plano. Sin embargo, debido a las limitadas capacidades de comunicación entre cada agente, el entorno se vuelve parcialmente visible. Este artículo propone el aprendizaje por refuerzo multiagente basado en juego cooperativo (CG-MARL) para diseñar la intersección como una estructura de agentes. El método considera no solo la comunicación y coordinación entre agentes, sino también el juego entre agentes. Cada agente observa su propia área para aprender la estrategia de RL y la función de valor, luego concentra la función de diferentes agentes a través de una red híbrida, y finalmente forma su propia función final en toda la red de transporte a gran escala. Los
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
StFuzzer: Contribution-Aware Coverage-Guided Fuzzing para dispositivos inteligentes
Artículo:
Método de marca de agua multiplicativa con el modelo de saliencia visual mediante la transformada Contourlet
Artículo:
Un enfoque eficiente de localización de nodos con RSSI para redes de sensores inalámbricas desplegadas aleatoriamente
Artículo:
Sistema de control de acceso confiable y eficiente entre dominios basado en blockchain.
Artículo:
Utilizando Aprendizaje Profundo para Predecir Sistemas Complejos: Un Estudio de Caso en la Generación de Energía Eólica