Алгоритм максимизации ожидания(expectation maximization algorithm), сокращенноЭМ-алгоритм, является итеративным алгоритмом, который можно использовать для определения скрытых переменных (hidden variable) является оценкой максимального правдоподобия параметров вероятностной модели или максимальной апостериорной оценкой.Алгоритм максимизации ожидания(expectation maximization algorithm), сокращенноЭМ-алгоритм, является итеративным алгоритмом, который можно использовать для определения скрытых переменных (hidden variable) является оценкой максимального правдоподобия параметров вероятностной модели или максимальной апостериорной оценкой.
Неравенство Дженсена
Прежде чем вводить алгоритм EM, сначала введем важное неравенство -Неравенство Дженсена(Jensen's Inequality)
- сделать , является выпуклой функцией, и если она имеет вторую производную, вторая производная которой всегда больше или равна 0, то существуют:
Если мы находимся в этом состоянии, предположим,является случайной величиной, то:
-
Точно так же, когдаКогда это вогнутая функция, есть:
-
Далее, если вторая производная функции больше 0, то:
ЭМ-алгоритм
определение проблемы
Гипотетический обучающий наборОтсостоят из независимых немаркированных образцов. У нас есть модель распределения вероятностей для этого обучающего набора, но мы можем только наблюдать. Нам нужно сделать параметрмаксимизировать логарифмическую вероятность , а именно:
процесс формализации
В частности, нам нужно каждый раз для функцииуказать на, найти вогнутую функцию, каждый разМаксимальный балл следующий, итерируем до тех пор, пока не будет найдена целевая функциядостигает локального максимума.
Как показано ниже:
получить
Мы предполагаем, что каждыйФункция распределения,Так и есть,имеют:
мы знаемявляется вогнутой функцией, если положитькак случайная величина,как функция распределения вероятностей случайной величины, то приведенное выше неравенство можно получить из неравенства Йенсена (3).
С того времени,Логарифмическая функция правдоподобияСуществует нижняя граница, но мы хотим получить более точную нижнюю границу, что является случаем, когда соблюдается знак равенства.Тогда мы имеем:
но:
снова,так:
так:
Тогда по формуле (8) имеем:
Поток алгоритма
repeat
(E step) for each i
end for
(M step)
untilФункция правдоподобия достигает своего максимального значения
использованная литература
[1] danerer-CSDN, Эндрю Нг Примечания к курсу машинного обучения (13) Алгоритм EM для неконтролируемого обучения [EB/OL], https://blog.csdn.net/danerer/article/details/80282612#expectation-maximization-algorithm , 2018-5-11/2018-7-30.
[2] Википедия, Неравенство Дженсена[DB/OL], https://en.wikipedia.org/wiki/Jensen%27s_inequality, 2018-06-06/2018-7-30.
Неравенство Дженсена
Прежде чем вводить алгоритм EM, сначала введем важное неравенство -Неравенство Дженсена(Jensen's Inequality)
- сделать , является выпуклой функцией, и если она имеет вторую производную, вторая производная которой всегда больше или равна 0, то существуют:
Если мы находимся в этом состоянии, предположим,является случайной величиной, то:
-
Точно так же, когдаКогда это вогнутая функция, есть:
-
Далее, если вторая производная функции больше 0, то:
ЭМ-алгоритм
определение проблемы
Гипотетический обучающий наборОтсостоят из независимых немаркированных образцов. У нас есть модель распределения вероятностей для этого обучающего набора, но мы можем только наблюдать. Нам нужно сделать параметрмаксимизировать логарифмическую вероятность , а именно:
процесс формализации
В частности, нам нужно каждый раз для функцииуказать на, найти вогнутую функцию, каждый разМаксимальный балл следующий, итерируем до тех пор, пока не будет найдена целевая функциядостигает локального максимума.
Как показано ниже:
получить
Мы предполагаем, что каждыйФункция распределения,Так и есть,имеют:
мы знаемявляется вогнутой функцией, если положитькак случайная величина,как функция распределения вероятностей случайной величины, то приведенное выше неравенство можно получить из неравенства Йенсена (3).
С того времени,Логарифмическая функция правдоподобияСуществует нижняя граница, но мы хотим получить более точную нижнюю границу, что является случаем, когда соблюдается знак равенства.Тогда мы имеем:
но:
снова,так:
так:
Тогда по формуле (8) имеем:
Поток алгоритма
repeat
(E step) for each i
end for
(M step)
untilФункция правдоподобия достигает своего максимального значения
использованная литература
[1] danerer-CSDN, Эндрю Нг Примечания к курсу машинного обучения (13) Алгоритм EM для неконтролируемого обучения [EB/OL], https://blog.csdn.net/danerer/article/details/80282612#expectation-maximization-algorithm , 2018-5-11/2018-7-30.
[2] Википедия, Неравенство Дженсена[DB/OL], https://en.wikipedia.org/wiki/Jensen%27s_inequality, 2018-06-06/2018-7-30.