La programación dinámica adaptativa (ADP), que pertenece al campo de la inteligencia computacional, es una herramienta poderosa para abordar problemas de control óptimo. Para superar el cuello de botella de resolver las ecuaciones de Hamilton-Jacobi-Bellman, en este artículo se revisan varios enfoques de vanguardia de ADP. En primer lugar, se presentan dos métodos de ADP iterativos fuera de línea basados en modelos, incluyendo la iteración de políticas (PI) y la iteración de valores (VI), y se discuten en detalle sus respectivas ventajas y desventajas. En segundo lugar, se introduce el método de programación dinámica heurística multietapa (HDP), que evita la necesidad de un control admisible inicial y logra una rápida convergencia. Este método utiliza con éxito las ventajas de PI y VI y supera sus inconvenientes al mismo tiempo. Por último, la estrategia de control óptimo en tiempo discreto se prueba en un sistema de energía.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Un método de análisis de riesgos financieros empresariales y alerta temprana basado en el modelo de árbol de decisiones
Artículo:
Verificación formal de un modelo de simulación DEVS de una aplicación Storm
Artículo:
ILC basado en modelos con un filtro modificado para sistemas de movimiento complejos: Consideraciones prácticas y verificación experimental en un escenario de obleas.
Artículo:
Un Sistema de Chat Basado en Texto Incorporado con un Agente Expresivo
Artículo:
Reconocimiento de enfermedades de cultivos y plagas de insectos basado en Aprendizaje Profundo.