[Словарный анализ] Объясните теорему Байеса простыми словами

машинное обучение

0x00 сводка

В этой статье мы попытаемся представить непротиворечивую теорему Байеса в простой для понимания форме и помочь вам углубить эту концепцию в конкретных сценариях применения.

0x01 ИТ-концепция

1. Теорема Байеса

Теорема Байеса используется для решения проблемы «обратной вероятности», которая заключается в предсказании определенной вероятности на основе некоторых ограниченных прошлых данных. Например, использование ограниченной информации (измерения прошлой погоды) для прогнозирования вероятности дождя завтра.

Основная идея заключается в том, что вновь наблюдаемая выборочная информация изменит предыдущее восприятие людьми вещей. Например, вначале у людей было лишь слабое предварительное знание природы, но по мере того, как в результате непрерывного наблюдения и практики было получено больше образцов, люди все более и более глубоко понимали законы природы.

2. Проблемные зоны

  • Решение проблемы (A): Хуянжуо хотел знать, был ли он доверенным лицом брата Гунмина, и использовал A для обозначения «вы доверенное лицо старшего брата».
  • Известный результат (B): Большой брат кланяется вам. Обозначим его как событие B.
  • Результат рассуждений P(A|B): Я хочу оценить вероятность того, что мой старший брат считает вас своим доверенным лицом из-за того, что старший брат поклонился вам.

3. Связанные термины

  • Априорная вероятность: относится к вероятности, полученной на основе прошлого опыта и анализа. Он появляется как «причина» в проблеме «причина-следствие».
  • Апостериорная вероятность: это относится к вероятности того, что после того, как что-то произошло, причина возникновения этого события связана с определенным фактором. Апостериорная вероятность относится к вероятности повторной коррекции после получения информации об «известном исходе». Это «причина» в проблеме «поиска причины».

Априорная вероятность — это вероятность, полученная в результате анализа прошлых данных, которая обычно относится к вероятности возникновения определенного класса вещей, а также вероятность, определяемая историческими данными или субъективным суждением без подтверждения. Апостериорная вероятность — это вероятность того, что информация будет повторно исправлена ​​после получения информации, и это вероятность того, что конкретное событие произойдет при определенных условиях.

  • P (A): это априорная вероятность A, она называется априорной, потому что не принимает во внимание какие-либо аспекты B.
  • P (B): это априорная вероятность B, она называется априорной, потому что не учитывает никаких аспектов A. Здесь вероятность того, что произойдет исход B.
  • P (A | B): это условная вероятность A после известного появления B, то есть B существует до A, а также апостериорная вероятность A из-за значения, полученного из B.
  • P (B | A): условная вероятность B после известного появления A, то есть сначала есть A, а затем B, а также апостериорная вероятность B из-за значения, полученного из A.
  • P(B|A)/P(B): функция правдоподобия, это поправочный коэффициент, то есть корректировка, вызванная новой информацией B, функция состоит в том, чтобы приблизить априорную вероятность к истинной вероятности.

4. Отвечая на этот вопрос

  • Априорная вероятность P(A): Хуянжуо не может знать заранее, считает ли старший брат его доверенным лицом, поэтому он может анализировать и судить только в соответствии с общим здравым смыслом (или прошлым опытом), чтобы получить вероятность, которая ориентировочно установлена ​​на уровне 50. % (ты нравишься старшему брату) , ты не нравишься два варианта).
  • Апостериорная вероятность P (A | B): то есть после наступления события B «старший брат кланяется», переоценка вероятности события A «старший брат считает вас доверенным лицом».

5. Шаблоны мышления

Новая идея равна старой идее, умноженной на поправочный коэффициент (также называемый отношением правдоподобия).

Сначала мы оцениваем априорную вероятность, а затем добавляем экспериментальные результаты, чтобы увидеть, увеличивает или ослабляет эксперимент априорную вероятность, тем самым получая апостериорную вероятность, более близкую к реальному времени.

后验概率 = 先验概率 x 调整因子
后验概率是 P(A|B)
先验概率是 P(A)
调整因子是 P(B|A)/P(B)

Или подумайте об этом так:

先验分布 + 样本信息 ==> 后验分布

在得到新的样本信息之前,人们对事物的认知是"先验分布"。
在得到新样本信息之后,人们对事物的认知调整为"后验分布"。

即原先你有旧观念 P(假设),有了新证据之后,P(假设|证据)就是你的新观念。新观念等于老观念乘上似然比。P(B|A)/P(B)在这里被称为"似然比"。

Или такой способ мышления

P(θ|X) = P(X|θ) P(θ) / P(X)
posterior = likehood * prior / evidence

posterior:P(θ|X)是 通过样本X得到参数θ的概率,也就是后验概率。
likehood:P(X|θ)是 通过参数θ得到样本X的概率,似然函数,通常就是我们的数据集的表现,即假设θ已知后我们观察到的数据应该是什么样子的。
prior:P(θ) 是参数θ的先验概率,一般是根据人的先验知识来得出的。
evidence:P(X) 是样本X发生的概率,是各种条件下发生的概率的积分。

0x02 Как ответить на этот вопрос

1. Популярное мышление

Хуянжуо оценил вероятность того, что его старший брат считал его доверенным лицом, по тому, что его старший брат поклонился ему.

Популярное мнение: Хуянжуо сначала оценил значение (априорная вероятность), а затем постоянно пересматривал его (функция возможности) в соответствии с новой наблюдаемой информацией. То есть использовать «поправочный коэффициент» для постоянного изменения «априорной вероятности»)».

Байесовская формула:

后验概率P(A|B)  = 先验概率P(A) x 调整因子 [P(B|A)/P(B)]

Для этого вопроса это

 P(大哥看重你|大哥下拜) = P(大哥看重你) x [ P(大哥因为看重你才下拜) / P(大哥下拜) ]
Как популярно думать об этом «поправочном факторе» Популярное понимание таково: Большой брат тебя ценит / (Большой брат тебя ценит + Большой брат тебя не ценит)

. То есть доля события «Большой брат ценит тебя» в общем событии.Это можно отрегулировать.

2. Решение конкретных проблем

2.1 Как найти априорную вероятность P(A)?

Обычно существуют следующие практики:

  • Естественное состояние, к которому принадлежит каждый образец, известно (обучение с учителем).
  • полагаться на опыт
  • Его можно получить, разделив частоту на общее количество раз, используя оценку частоты каждого типа возникновения в обучающей выборке, например, с помощью оценки максимального правдоподобия. То есть количество вхождений этого класса в выборке, деленное на размер выборки.

Здесь Хуанжуо использует здравый смысл, чтобы судить, вероятность того, что старший брат ценит, и вероятность того, что он не ценит, составляет 50%, то есть

P(A) = P(-A) = 50%

2.2 Как найти P(B)?

P(B) можно получить эмпирически, но обычно используется формула полной вероятности.

То есть формула полной вероятности представляет собой задачу решения вероятности сложных событий и преобразования ее в задачу суммирования вероятностей простых событий, происходящих при различных обстоятельствах.

P(B) = P(B|A)P(A) + P(B|-A)P(-A), 这里把A的反集记作-A

В соответствии с этой темой

P(大哥下拜) = P(大哥因为看重你才下拜)P(大哥看重你) + P(大哥不看重你也会下拜)P(大哥不看重你)

2.3 Как найти P(B|A)?

Это сложно. Причины включают:

  • Функция плотности вероятности содержит всю информацию о случайной величине;
  • Выборочных данных может быть немного;
  • Размер вектора признаков x может быть большим и т. д.;

Решение состоит в том, чтобы преобразовать оценочную полностью неизвестную плотность вероятности в оценочные параметры. Здесь задача оценки плотности вероятности преобразуется в задачу оценки параметров, а оценка максимального правдоподобия является методом оценки параметров.

Конечно, выбор функции плотности вероятности очень важен, и модель правильная.Когда площадь выборки бесконечна, мы получим более точную оценку.Если модель вся неверна, однозначно будет бессмысленно оценивать параметры за полдня.

В этом вопросе Хуянжуо получил индуктивное рассуждение, основанное на наблюдении выборочных данных.

P(大哥因为看重你才下拜) = 20%  
P(大哥不看重你也会下拜) = 80%

2.4 Последующий вывод

Итак, Хуянжуо получил следующую формулу:

P(大哥看重你|大哥下拜) 
= P(大哥看重你) x [P(大哥因为看重你才下拜) / P(大哥下拜)]
= P(大哥看重你) x [P(大哥因为看重你才下拜) / [ P(大哥因为看重你才下拜)P(大哥看重你) + P(大哥不看重你也会下拜)P(大哥不看重你) ] ]

Хуянжуо обнаружил, что старший брат Гунмин не склонил голову перед Ли Куй Дайцзуном, но поклонился Дун Пину/Гуань Шэну/Лу Цзюньи. Я знаю, что старший брат на кого-то особо не обращает внимания, но не обращает внимания, а ради рутины поклонится.

Поэтому Хуянжуо придумал следующий процесс расчета.

以下是呼延灼根据常理假设
p(大哥看重你)=50%
p(大哥不看重你)=50%

以下是呼延灼根据观察归纳推理
P(大哥因为看重你才下拜) = 20%
P(大哥不看重你也会下拜) = 80%

于是呼延灼最终计算如下
P(大哥看重你|大哥下拜) = 50% x (20% / (20%x50% + 80%x50%)) = 20%

Таким образом, из поклона старшего брата Хуянжуо видно, что старший брат не ценит Хуянжуо. Снизить вероятность того, что Большой Брат ценит Хуянжуо.

3. Заключение

Одним предложением байесовское мышление можно охарактеризовать как «мнения меняются вместе с фактами».

Если у меня есть вся информация о предмете, я, конечно, могу рассчитать объективную вероятность (классическую вероятность). Однако большинство жизненных решений принимается с неполной информацией, а в наших руках только ограниченная информация. Поскольку исчерпывающая информация не может быть получена, мы стараемся сделать хороший прогноз, насколько это возможно, с ограниченной информацией. То есть на основе субъективного суждения вы можете сначала оценить значение (априорная вероятность), а затем постоянно изменять его (функция правдоподобия) на основе новой наблюдаемой информации.

Это немного похоже на раскрытие дела, угадывание причины по результату. Вы приходите на место преступления и собираете улики (результаты). Благодаря наложению улик характеристики убийцы постепенно прояснились. В конце концов, вы выбираете «верить», кто убийца.

Байес сказал, что степень, в которой вы «верите» в гипотезу, должна быть выражена в терминах вероятности — P (гипотеза)..

ссылка 0x03

blog.CSDN.net/WeChat_4092…

cloud.Tencent.com/developer/you…

blog.CSDN.net/QQ_28168421…

blog.CSDN.net/Цзэн Сяньтао…

★★★★★★Думая о жизни и технологиях★★★★★★

Публичный аккаунт WeChat: мысли Росси

В этой статье используется [mdnice](https://mdnice.com/?from=juejin) набор текста