El Aprendizaje por Refuerzo Multiagente (MARL) es una técnica prometedora para que los agentes aprendan políticas coordinadas efectivas en Sistemas Multiagente (MASs). En muchos MASs, las interacciones entre agentes suelen ser escasas, por lo que se idearon muchos métodos de MARL para ellos. Estos métodos dividen el proceso de aprendizaje en aprendizaje independiente y aprendizaje conjunto en estados coordinados para mejorar el aprendizaje tradicional del espacio de estados-acción conjunto. Sin embargo, la mayoría de esos métodos identifican estados coordinados basados en suposiciones sobre la estructura del dominio (por ejemplo, dependencias) o del agente (por ejemplo, política óptima individual previa y homogeneidad del agente). Además, todavía existen situaciones que los métodos actuales no pueden manejar. En este documento, se propone un enfoque modificado para aprender dónde y cómo coordinar los comportamientos de los agentes en MASs más generales con interacciones escasas. Nuestro enfoque introduce la agrupación de muestras
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Técnica iterativa monotona para ecuaciones diferenciales fraccionarias conformables con argumentos que se desvían
Artículo:
Un procedimiento de modelización gris de descomposición difusa para el análisis de decisiones de gestión
Artículo:
Métodos Lagrangianos Modificados para Problemas de Optimización Separables
Artículo:
Sincronización de combinación-combinación de cuatro sistemas caóticos complejos no lineales.
Artículo:
Un enfoque de ecuación modificada para seleccionar un esquema de diferencia finita no estándar aplicado a la ecuación de onda larga regularizada.