La información mutua (mutual information, MI) cuantifica la dependencia estadística entre un par de variables aleatorias y juega un papel central en el análisis de sistemas ingenieriles y biológicos. La estimación de la MI es difícil debido a su dependencia con respecto a una distribución conjunta entera, lo cual dificulta la estimación a partir de muestras. En este documento se discuten varios estimadores regularizados para MI que emplean distribuciones previas (priors) con base en la distribución Dirichlet. Se revisan tres estimadores “cuasibayesianos” producto de combinaciones lineales de estimadores bayesianos para entropías condicionales y marginales.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Algoritmo híbrido de búsqueda de armonía y de recocido simulado para problemas de localización-inventarios-enrutamiento en el diseño de cadena de suministro
Ponencia:
Introducción a la simulación Monte Carlo
Tesis:
Medición estratégica CMD, confiabilidad, mantenibilidad, disponibilidad en el sistema de vapor de una planta química en el departamento del Atlántico
Artículo:
Problemas de asignación y del agente viajero con coeficientes como parámetros difusos LR
Libro:
Programación lineal: el modelado, las aplicaciones y la interpretación