【Базовые знания】
【Совместная вероятность】 Представляет вероятность одновременного возникновения двух событий. Совместная вероятность A и B выражается как P(AB) или P(A,B).
【Условная возможность】 Условная вероятность относится к вероятности того, что событие А произойдет при тех же условиях, что и событие В.
P(A|B)=P(A,B)/P(B)
【Формула полной вероятности】 Если события A1, A2, ... образуют полную группу событий и все имеют положительную вероятность, то для любого события B выполняется следующая формула:
Если вы хотите понять Наивного Байеса, вы должны сначала понять, что такое формула Байеса. Формула Байеса в основном описывает отношение между двумя условными вероятностями, а именно отношение между P(A|B) и P(B|A).
P(A|B)=P(A)*P(B|A)/P(B)
В этой формуле это эквивалентно тому, что мы, наконец, хотим узнать вероятность события A, происходящего при условии события B,
P(A): априорная вероятность события A, то есть базовое суждение о событии при отсутствии каких-либо условий.
P(A|B): апостериорная вероятность, то есть вероятность того, что событие A произойдет при условии B.
P(B|A)/P(B): Это эквивалентно поправочному коэффициенту, так что априорная вероятность корректируется для получения апостериорной вероятности.Когда эта часть равна 1, это означает, что добавление события B бесполезно для оценки возможности A. Тест равен апостериорному. Когда он больше 1, это означает, что вероятность события А увеличивается из-за добавления события Б.
【Наивный принцип Байеса】
Откуда слово наивный, ведь в этом классификаторе мы предполагаем, что каждый признак условно независим при определении категории, что делает байесовский простым и наивным, но ценой некоторой точности классификации ценой сексуальности, потому что мы не может гарантировать, что отдельные признаки действительно полностью некоррелированы. Следовательно, Наивный Байес больше подходит для моделей классификации со слабой корреляцией между признаками.
Поскольку мы предполагаем условную независимость между каждым признаком при определении категории, то при наличии n признаков
Принцип максимизации апостериорной вероятности эквивалентен минимизации ожидаемой ошибки, и процесс доказательства выглядит следующим образом:
【Например】
Если вы думаете, что уже поняли, приведите пример:
【Вопросы для размышления】
В чем разница между Наивным Байесом и Деревом решений в разделении пространства признаков?
Для ответа обратитесь к этой статье моего братаНаивный байесовский