ОБРАБОТКА ИНФОРМАЦИИ И АНАЛИЗ ДАННЫХ
Ю.А. Дубнов, А.В. Булычев "Об одном подходе к настройке алгоритма Метрополиса Гастингса для задачи разделения смеси гауссовских компонент"
ПРИКЛАДНЫЕ АСПЕКТЫ ИНФОРМАТИКИ
СИСТЕМЫ УПРАВЛЕНИЯ
Ю.А. Дубнов, А.В. Булычев "Об одном подходе к настройке алгоритма Метрополиса Гастингса для задачи разделения смеси гауссовских компонент"
Аннотация. 

В статье рассматривается задача разделения смеси гауссовских компонент, заключающаяся в определении по имеющимся наблюдениям параметров компонент смеси. Предлагается подход к решению данной задачи, основанный на байесовском оценивании с применением наиболее информативных априорных распределений (Maximal Data Information Prior – MDIP). Новизна описанного подхода заключается в использовании выборочных оценок для вычисления априорного распределения и определения настроек алгоритма Метрополиса-Гастингса для семплирования с адаптивной поэтапной подстройкой параметров предложенного распределения.

Ключевые слова: 

смесь распределений, байесовское оценивание, априорное распределение, алгоритм Метрополиса-Гастингса.

Стр. 25-33.

DOI 10.14357/20718632200103
 
Литература

1. McLachlan, G., and D. Peel. Finite Mixture Models. – Hoboken, NJ: John Wiley & Sons. Inc., 2000.
2. Figueiredo, M.A.T. and Jain A.K. Unsupervised Learning of Finite Mixture Models. // IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.24(3), pp.381-396, 2012.
3. Reynolds, D.A., Rose, R.C. Robust Text-Independent Speaker Identification using Gaussian Mixture Speaker Models // IEEE Transactions on Acoustics, Speech, and Signal Processing, vol.3(1). pp.72-83, 1995.
4. Brigo Damiano, Mercurio Fabio. Lognormal-mixture dynamics and calibration to market volatility smiles. // International Journal of Theoretical and Applied Finance, vol.5(4), pp.427-452, 2002.
5. Дубнов Ю.А., Булычев А.В. Байесовская идентификация параметров смеси нормальных распределений // Информационные технологии и вычислительные системы. 2017. вып.1. С. 101-111.
6. Dempster A.P., Laird N.M., Rubin D.B. Maximum Likelihood from Incomplete Data via the EM Algorithm.// Journal of the Royal Statistical Society. Series B, vol.39(1), pp.1-38, 1977.
7. John E. Rolph. Bayesian Estimation of Mixing Distributions // The Annals of Mathematical Statistics, vol.39, No.4, pp.1289-1302, 1968.
8. Andrew Gelman. Bayes, Jeffreys, Prior Distributions and the Philosophy of Statistics // Statistical Science, vol.24, No.2, pp.176-178, 2009.
9. Robert E. Kass and Larry Wasserman. The Selection of Prior Distributions by Formal Rules // Journal of the American Statistical Association, vol.91, No.435, pp.1343-1370, 1996.
10. Navid Feroze and Muhammad Aslam. Bayesian Estimation of Two-Component Mixture of Gumbel Type II Distribution under Informative Priors // International Journal of Advanced Science and Technology, vol.53, pp.11-30, 2013.
11. Zellner A. Past and Recent Results on Maximal DataInformation Priors // Texhnical Report, Graduate School of Business, University of Chicago, 1996.
12. Siddhartha Chib, Edward Greenberg. Understanding the Metropolis-Hastings Algorithm // The American Statistician, vol.49, No.4, pp.327-335, 1995.
13. Gilks, W.R. and Roberts, G. O. ”Strategies for improving MCMC”, in (Gilks, W.R. eds) Markov Chain Monte Carlo in Practice, Chapman & Hall/CRC? 1996.
14. Robert, Christian; Casella, George. Monte Carlo Statistical Methods. Springer, 2004.
15. Dempster A.P., Laird N.M., Rubin D.B. Maximum Likelihood from Incomplete Data via the EM Algorithm.// Journal of the Royal Statistical Society. Series B, vol.39(1), pp.1-38, 1977.
 

2024 / 01
2023 / 04
2023 / 03
2023 / 02

© ФИЦ ИУ РАН 2008-2018. Создание сайта "РосИнтернет технологии".