Bayesian and quasi-bayesian estimators for mutual information from discrete data
Estimadores bayesianos y cuasibayesianos para información mutua a partir de datos discretos
La información mutua (mutual information, MI) cuantifica la dependencia estadística entre un par de variables aleatorias y juega un papel central en el análisis de sistemas ingenieriles y biológicos. La estimación de la MI es difícil debido a su dependencia con respecto a una distribución conjunta entera, lo cual dificulta la estimación a partir de muestras. En este documento se discuten varios estimadores regularizados para MI que emplean distribuciones previas (priors) con base en la distribución Dirichlet. Se revisan tres estimadores “cuasibayesianos” producto de combinaciones lineales de estimadores bayesianos para entropías condicionales y marginales.
Este artículo fue elaborado por Evan Archer, Il Memming Park y Jonathan W. Pillow (The University of Texas at Austin, Austin, TX, Estados Unidos) para Entropy (Vol. 15, No 5, 2013, 1738-1755), publicación internacional e interdisciplinaria vinculada a MDPI, plataforma de revistas científicas de acceso abierto operada por MDPI Verein (Basilea, Suiza).
Recursos
-
Formatopdf
-
Idioma:inglés
-
Tamaño:1877 kb