Это 14-й день моего участия в августовском испытании обновлений.Подробности о событии:Испытание августовского обновления
Модель гауссовой смеси GMM
Модель гауссовой смеси Модель гауссовой смеси является распространенной генеративной моделью.
Mixture Model
Смешанная модель — это вероятностная модель, которую можно использовать для представления распределения с K подраспределениями в популяции. Другими словами, смешанная модель представляет распределение вероятностей наблюдаемых данных в популяции, которая представляет собой смесь K подраспределений. -дистрибутивы. Смешанные модели не требуют, чтобы наблюдения предоставляли информацию о подраспределениях для расчета вероятности того, что наблюдения находятся в распределении генеральной совокупности.
Gaussian Mixture Model
Мы знаем, что многомерное распределение Гаусса подчиняется следующей функции плотности вероятности:
Модель гауссовой смеси (GMM) является расширением одной гауссовой функции плотности вероятности, GMM может плавно аппроксимировать распределение плотности любой формы.
Смешанную гауссовскую модель можно рассматривать как модель, состоящую из K одиночных гауссовских моделей, и эти K подмоделей являются скрытыми переменными смешанной модели.
И мы можем думать, что функция плотности вероятности смешанной гауссовской модели может быть взвешена с помощью ее k одиночных функций плотности распределения Гаусса.
Предположим, что наши выборочные данные, в целомобразцы, созначает первыйВесовой коэффициент одной модели Гаусса,Представляет функцию плотности вероятности одного гауссиана следующим образом:
Очевидно, что параметры ОММ представляют собой набор,
Вы найдете здесь,Значение необходимо определить заранее, что очень важно, аналогичноЭто нужно определить в первую очередь.
Оценка параметра
При изучении многомерного распределения Гаусса мы знаем, что максимальное правдоподобие можно использовать для оценкиЗначение , функция правдоподобия
Для GMM мы предполагаем, что каждый набор выборочных данных независим, тогда функция правдоподобияКумулятивное умножение каждой точки, учитывая, что вероятность одной точки очень мала, данные будут меньше после непрерывного умножения, что, вероятно, вызовет потерю памяти с плавающей запятой, поэтому мы можем использовать логарифмическую вероятность:
Решите с помощью алгоритма EM
Сначала случайным образом инициализируйте набор параметров:
Шаг Д:
Так называемое E — это ожидание, то есть, когда мы знаем параметры модели, скрытые переменныеНайдите математическое ожидание следующим образом:
то есть данныеПоследнийВероятность субгауссовой модели.
М шаг:
теперь у нас естьможно использовать максимальное правдоподобие для оценки параметров следующей итерации:
Повторяйте шаги E и M до сходимости
Следует отметить, что EM-алгоритм является сходящимся, но не гарантирует нахождения глобального максимума, возможно нахождение локального максимума. Решение состоит в том, чтобы инициализировать несколько разных параметров и выполнить итерацию, чтобы выбрать тот, который дает наилучший результат.
Ссылаться на
- Учитель Ли Ханг - "Статистические методы обучения"