Введение в алгоритмы
Согласно описанию в книге Ли Ханга «Статистические методы обучения», алгоритмы машинного обучения можно разделить на вероятностные модели и невероятностные модели. Модели, включенные в две категории, упомянутые в этой книге, следующие:
- Вероятностная модель
Включая деревья решений, наивные байесовские модели, скрытые марковские модели, условные случайные поля, вероятностный латентный семантический анализ, латентное распределение Дирихле, смешанные модели Гаусса являются вероятностными моделями.
- невероятностная модель
Включает персептроны, машины опорных векторов, k-ближайших соседей, AdaBoost, k-средних, латентный семантический анализ и алгоритмы нейронных сетей.
Кроме того, логистическую регрессию можно рассматривать как вероятностную модель, так и невероятностную модель.
В приведенных выше вероятностных моделях ранее была описана модель дерева решений, а сегодня мы поговорим о Наивной байесовской классификации.
Наивный байесовский метод классификации основан на теореме Байеса и предположении об условной независимости признаков. Для заданного обучающего набора данных, во-первых, на основе предположения о независимости условий признака, изучается совместное распределение вероятностей ввода и вывода; затем на основе этой модели для заданного ввода получается вывод с наибольшей апостериорной вероятностью. с помощью теоремы Байеса. Алгоритм прост в реализации, обладает высокой эффективностью обучения и прогнозирования и является широко используемым методом.
Давайте сначала рассмотрим базовые знания теории вероятностей.
Базовые знания теории вероятностей
байесовская формула
Знаменатель здесь на самом деле
Если вы не понимаете формулу Байеса, мы можем посмотреть на упрощенную версию:
Следующая диаграмма помогает нам понять эту формулу:
$P(B | A) — вероятность появления B при условии A. A представляет левый круг с вероятностью 0,3, B представляет правый круг с вероятностью 0,4, прямоугольник представляет собой множество всех возможностей с вероятностью 1. в
Пересечение двух окружностей — это вероятность того, что событие АВ произойдет одновременно:
левая часть формулы
правая часть формулы
Формула оказывается правильной.
В этой статье мы рассмотрим проблему классификации.
Алгоритмическая сцена
У нас есть следующий набор данных,иэто набор функций, набор значений,,отметить класс,.
Данные тренировки следующие:
1 | 1 | S | -1 |
2 | 1 | M | -1 |
3 | 1 | M | 1 |
4 | 1 | S | 1 |
5 | 1 | S | -1 |
6 | 2 | S | -1 |
7 | 2 | M | -1 |
8 | 2 | M | 1 |
9 | 2 | L | 1 |
10 | 2 | L | 1 |
11 | 3 | L | 1 |
12 | 3 | M | 1 |
13 | 3 | M | 1 |
14 | 3 | L | 1 |
15 | 3 | L | -1 |
Учитывая новый образец (2, S), найдите прогнозируемое значение для этого образца.
На первый взгляд видно, что одна из выборок в таблице — (2, S). Затем посмотрите таблицу напрямую, разве результат не -1? Верна ли эта идея? неправильный! Очень прямая причина, потому что целевые значения здесь все вероятностные, и при одинаковых условиях есть определенная вероятность получить -1, или 1. Здесь по признаку (2, S) мы получаем ровно -1 в таблице. Это не означает, что вероятность получить target=-1 по признаку (2, S) равна 100%.
Предсказание результата
На основе приведенных выше выборок можно рассчитать следующие вероятности:
Для заданного (2, S) мы вычисляем вероятности того, что оно предсказывает 1 и -1 соответственно.
Вероятность результата 1:
Вероятность того, что результат равен -1:
можно получить сравнение
Таким образом, предсказанное значение (2, S) равно -1.
Суммировать
Приведенные выше случаи взяты из «Статистических методов обучения». Но ясно видно, что между двумя признаками в данном случае есть определенное влияние, и они не являются полностью независимыми друг от друга.
час,Вероятность быть S или M очень высока.час,Вероятность быть M или L очень высока.
Следует иметь в виду, что характеристика байесовских моделей заключается в том, что функции не зависят друг от друга. В противном случае пострадает точность расчета. Так что я лично не думаю, что это особенно хороший случай.Что вы думаете?