Вероятностная графическая модель (2) - Марковское случайное поле

машинное обучение

概念导图



1. Интуитивное понимание случайного поля Маркова

干货|如何轻松愉快的理解条件随机场(CRF)?



2. Некоторые основные понятия

2.1 Неориентированный граф

无向图
В неориентированном графе A, B, C и D являются вершинами, а линии, соединяющие вершины, называются ребрами.

2.2 Карта вероятностей:

использоватьрисуноквыражатьРаспределения вероятностейПуть. Каждый узел графа представляет собойСлучайные переменные, который связан сбоковая сторонаОн представляет собой вероятностную зависимость между случайными величинами. так,рисунокпредставляет совместное распределение вероятностей. Возьмите приведенный выше рисунок в качестве примера с совместным распределением вероятностейP(Y),YдаОдна группаслучайная величина, то на графике узел А представляет собой случайную величинуY_A,Узел Аиузел Bизбоковая сторонавыражатьслучайная величина Аислучайная величина Взависимости между.

  • Неориентированные графы представляют три свойства Маркова:
    • Попарная марковость
      成对马尔科夫示意图
      Узлы u и v не связаны друг с другом, все остальные узлы отмечены как O, а соответствующие им случайные величины равныY_u, Y_vиY_O. На данный момент: в данное времягруппа случайных величинY_Oв случае,Y_u, Y_vусловная независимость, это
P(Y_u, Y_v|Y_O)=P(Y_u|Y_O) P(Y_v|Y_O)
  • локальное марковское свойство
    局部马尔科夫示意图
    Возьмите любой узел на графике и запишите связанные с ним узлы как W, O — все точки, кроме v и W, а v — случайная величина.Y_v, W означает, что группа случайных величинY_W, O представляет группу случайных величинY_Oтогда: даногруппа случайных величинY_Wв случае,Y_v, Y_Oусловная независимость, это
\begin{align} P(Y_v, Y_O|Y_W)&=P(Y_v|Y_W) P(Y_O|Y_W)\\\\ \Rightarrow \frac{P(Y_v, Y_O, Y_W)}{P(Y_W)}&=P(Y_v|Y_W) \frac{P(Y_O, Y_W)}{P(Y_W)}\\\\ \Rightarrow \frac{P(Y_v, Y_O, Y_W)}{P(Y_O, Y_W)}&=P(Y_v|Y_W)\\\\ \Rightarrow P(Y_v| Y_O, Y_W)&=P(Y_v|Y_W)  \end{align}
  • глобальное марковское свойство
    全局马尔科夫示意图
    В графе множества A и B — это любые множества узлов, разделенные множеством C, и соответствующиегруппа случайных величинсоответственноY_A.Y_B,Y_C, то при этом условии предполагается, чтогруппа случайных величинY_Cсостояние,группа случайных величинY_A.Y_Bдаусловная независимостьиз.
P(Y_A, Y_B|Y_C)=P(Y_A|Y_C) P(Y_B|Y_C)

2.3 Вероятностная графическая модель:

Если совместное распределение вероятностейYудовлетворитьПопарные, локальные или глобальные марковские свойства, то совместное распределение вероятностей равноВероятностные модели неориентированных графов (марковские случайные поля).

  • Клики и максимальные клики в вероятностных графических моделях:

一条小团团
в неориентированном графелюбойПодмножество узлов, в котором оба узла соединены ребром, называетсягруппа, например, на рисунке ниже, предполагая случайную величину1,2,но\left \{Y_1,Y_2 \right \}представляет собойгруппа,\left \{Y_1,Y_4 \right \}Не образует группу.

В этот момент перейдите кгруппаПрисоединяйсялюбойУзел, если множество не удовлетворяетгруппаусловие, то оно вызывается перед присоединением к узлугруппазасамая большая группа. Например, чтобы установить\left \{Y_1,Y_2 \right \}ПрисоединяйсяY_2, все еще устраиваетгруппасостояние, продолжайте присоединяться к узлуY_4,так какY_1не соY_4подключен, так что\left \{Y_1,Y_2, Y_3 \right \}засамая большая группа.

无向图的团和最大团

  • Факторинг в вероятностных графических моделях

Прежде чем говорить об этой проблеме, давайте посмотрим на разницу между байесовской моделью и вероятностной графической моделью:

  • дваБайесовская модель
  1. 贝叶斯网络1
    Совместная вероятность байесовской сети 1P(R, C, W, S)=P(R)P(C)P(W|C,R)P(S|W)

  2. 贝叶斯网络2

Байесовская сеть 2 является неверной сетью, так как согласно формуле имеем

P(A,B,C)=P(B|A)P(C|B)P(A|C) =P(B,C|A)P(A|C)=P(ABC|C)
  • Вероятностная графическая модель: Но в вероятностных графических моделях по-другому.
    概率图模型
    кто тоНайдите функцию, которая может составить карту вероятностей всамая большая группаОни имеют:
P(A,B,C,D,E)\propto \Psi(A,B)\Psi(B,C)\Psi(B,D)\Psi(C,E)\Psi(D,E)

Факторинг в вероятностных графических моделях: представляет совместное распределение вероятностей на карте вероятностей каксамая большая группаФункция от случайной величины в виде оценки.

\begin{align} P(Y)=&\frac{1}{Z} \prod_{C}\Psi _C(Y_C) \tag{2.1}\\ Z=&\sum_{Y}\prod_{C}\Psi _C(Y_C) \tag{2.2} \end{align}

где C — наибольшая клика неориентированного графа,Y_C- случайная величина, соответствующая узлу C,\Psi _C(Y_C)дапотенциальная функция, определяется на Cстрого положительная функция, произведение выполняется по всем максимальным кликам неориентированного графа.

  • Отличие вероятностных графических моделей от байесовских сетей
  1. цепная модель Обратите внимание, что в вероятностной графической модели\Psi (A,B)и\Psi (B,C)Не обязательно только соответствие на рисунке.

    链状模型

  2. поделиться родителем

    共同祖先

  3. поделиться дочерним узлом Байесовская сеть:

    贝叶斯网络

概率图模型
в соответствии сПопарная марковостьОпределения , A и B на этом рисунке не зависят друг от друга, поэтому уравнения, перечисленные в правой части рисунка, в этом случае не выполняются. В настоящее время для расчета совместной вероятности ее необходимо изменить в виде следующей фигуры:
image.png

2.4 Резюме

  1. Отношения между группами в марковском случайном поле независимы.
  2. Байесовская сетьне равноМарковское случайное поле

3. Теорема Хаммерсли-Клиффорда.

Теорема Хаммерсли-Клиффорда показывает, почему совместное распределение вероятностей неориентированных графовP(Y)может быть выражена в виде формулы(2.1)и(2.2). Конкретный процесс доказательства здесь.


использованная литература