Obtenemos resultados de convergencia débil y escalado óptimo para el algoritmo de Metropolis de caminata aleatoria con una distribución de propuesta Gaussiana. El muestreador se aplica a distribuciones objetivo jerárquicas, que son la base de muchos análisis bayesianos. La varianza de propuesta global asintóticamente óptima derivada se puede calcular como una función de la distribución objetivo específica considerada. También introducimos el concepto de ajustes localmente óptimos, es decir, ajustes que dependen de la posición actual de la cadena de Markov. Los teoremas se demuestran estudiando el generador de los primeros y segundos componentes del algoritmo y verificando su convergencia al generador de un algoritmo RWM modificado y un proceso de difusión, respectivamente. La tasa a la que el algoritmo explora su espacio de estados se optimiza estudiando la medida de velocidad del proceso de difusión límite. Ilustramos la teoría con dos ejemplos. También se presentan aplicaciones de estos resultados en datos simul
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Metodologías Paramétricas para Detectar Cambios en la Temperatura Máxima de Tlaxco, Tlaxcala, México
Artículo:
Sobre el estudio de la transitoriedad y recurrencia de la cadena de Markov definida por circuitos dirigidos ponderados asociados con un paseo aleatorio en un entorno fijo.
Cartilla:
¿Qué es la responsabilidad social empresarial? 8 preguntas y respuestas
Artículo:
Correlaciones entre los sectores metalúrgico, de maquinaria y de la construcción durante el último ciclo económico
Artículo:
Evaluación de la madurez del proceso S&OP de una empresa de materiales escritos: un estudio de caso