Este documento trata sobre los procesos de decisión de Markov (MDPs) en espacios euclídeos con un horizonte infinito. Un enfoque para estudiar este tipo de MDPs es utilizando la técnica de programación dinámica (DP). Luego, la función de valor óptimo se caracteriza a través de las funciones de iteración de valor. El documento proporciona condiciones que garantizan la convergencia de los maximizadores de las funciones de iteración de valor hacia la política óptima. Luego, utilizando la ecuación de Euler y una fórmula de sobreenvoltura, se obtiene la solución óptima del problema de control óptimo. Finalmente, esta teoría se aplica a un problema de control lineal-cuadrático para encontrar su política óptima.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Relajación de forma de onda de Schwarz para ecuaciones de calor con condiciones de contorno dinámicas no lineales.
Artículo:
Modelado dinámico y análisis de un regulador de alta presión
Artículo:
Análisis analítico e investigación de campo de la consolidación para la fundación compuesta de pilotes CCSG en arcilla blanda.
Artículo:
Análisis de juegos dinámicos en el mercado de la electricidad de carbón con intereses múltiples
Artículo:
Existencia y Caracterización de Soluciones de Ecuaciones Integrales No Lineales de Volterra-Stieltjes en Dos Variables
Artículo:
Creación de empresas y estrategia : reflexiones desde el enfoque de recursos
Libro:
Ergonomía en los sistemas de trabajo
Artículo:
La gestión de las relaciones con los clientes como característica de la alta rentabilidad empresarial
Artículo:
Los web services como herramienta generadora de valor en las organizaciones