Se deriva el principio de optimalidad de Bellman para el sistema dinámico estocástico en escalas de tiempo, que incluye el tiempo continuo y el tiempo discreto como casos especiales. Al mismo tiempo, se obtiene la ecuación de Hamilton-Jacobi-Bellman (HJB) en escalas de tiempo. Finalmente, se emplea un ejemplo para ilustrar nuestros resultados principales.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Análisis dinámico del modelo de propagación de rumores considerando la actividad de los nodos en redes complejas.
Artículo:
Análisis de rendimiento del sistema NOMA cooperativo full-duplex asistido por superficie inteligente reconfigurable.
Artículo:
Análisis del Problema de Selección de Red para Entornos Heterogéneos con Satisfacción Conjunta Usuario-Operador y Transmisión Multi-RAT
Artículo:
Algoritmos de minería en solitario de multiprocesamiento eficiente en energía para sistemas de blockchain públicos.
Artículo:
Detección, Integración y Optimización de la Simulación del Campo Acústico en Espacios Cerrados