Los agentes de aprendizaje por refuerzo (RL) pueden aprender a controlar un sistema no lineal sin utilizar un modelo del sistema. Sin embargo, tener un modelo conlleva beneficios, principalmente en términos de una reducción en el número de intentos fallidos antes de lograr un rendimiento de control aceptable. Se han utilizado varios enfoques de modelado en el dominio del RL, como redes neuronales, regresión lineal local o procesos gaussianos. En este artículo, nos enfocamos en técnicas que no se han utilizado mucho hasta ahora: regresión simbólica (SR), basada en programación genética y modelado local. Utilizando datos medidos, la regresión simbólica produce un modelo analítico no lineal continuo en el tiempo. Comparamos dos métodos de vanguardia, SNGP (programación genética de un solo nodo) y MGGP (programación genética multigen), con un método estándar de regresión local incremental llamado RFWR (regresión ponderada de campo receptivo). Hemos introducido modificaciones en el algoritmo de RFWR para
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Diseño, modelado y experimentos del recolector de energía piezoeléctrico de vibración inducida por vórtices con accesorios biónicos.
Artículo:
Análisis sobre el comportamiento auto-cuantificado de los clientes en el consumo de alimentos bajo la perspectiva de las redes sociales.
Artículo:
Control deslizante de modo de retroceso adaptativo para UAV de cuadricóptero
Artículo:
Método de localización de bordes para imágenes multidimensionales basado en el algoritmo de simetría de bordes
Artículo:
Método y dispositivo interactivo de realidad virtual basado en seguimiento de comunicación inalámbrica.