La información mutua (mutual information, MI) cuantifica la dependencia estadística entre un par de variables aleatorias y juega un papel central en el análisis de sistemas ingenieriles y biológicos. La estimación de la MI es difícil debido a su dependencia con respecto a una distribución conjunta entera, lo cual dificulta la estimación a partir de muestras. En este documento se discuten varios estimadores regularizados para MI que emplean distribuciones previas (priors) con base en la distribución Dirichlet. Se revisan tres estimadores “cuasibayesianos” producto de combinaciones lineales de estimadores bayesianos para entropías condicionales y marginales.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Capítulo de libro:
El método de los mínimos cuadrados
Artículo:
Un algoritmo mejorado para resolver problemas de flujo máximo difuso
Artículo:
Diseño de control para cadenas de markov bajo restricciones de seguridad : una aproximación convexa
Artículo:
Efecto del modo de formación de la coquilla en la calidad de la fundición
Capítulo de libro:
La historia e impacto del mantenimiento productivo total
Informe, reporte:
Diagnóstico sobre la logística del comercio internacional y su incidencia en la competitividad de las exportaciones de los países miembros
Artículo:
Nuevas necesidades cosméticas : tendencias y productos específicos
Manual:
Química de los taninos
Artículo:
Influencia del COVID-19 en las dinámicas de exportación, producción y consumo de carne vacuna en Colombia y el mundo: Una revisión monográfica.