Введение
Вероятностные модели в машинном обучении используют статистические коды для проверки данных. Это был один из первых методов машинного обучения. Он широко используется и по сей день. Наиболее известным алгоритмом в этой группе является алгоритм наивного Байеса.
Вероятностные модели обеспечивают основу для понимания того, что такое обучение. Вероятностная структура определяет, как резервирование моделей помечается и развертывается. Прогнозирование играет ведущую роль в анализе научных данных. Их роль также очень важна в машинном обучении, автоматизации, когнитивных вычислениях и искусственном интеллекте.
описывать
Вероятностные модели предлагаются как общая идиома, определяющая мир. Эти модели описываются с использованием случайных величин, например, строительных блоков веры через вероятностные отношения.
В машинном обучении есть вероятностные и невероятностные модели. Информация об основных понятиях вероятности, таких как случайные величины и распределения вероятностей, поможет лучше понять вероятностные модели.
Описательные рассуждения на основе зашумленных или неоднозначных данных являются неотъемлемой частью интеллектуальных систем. В теории вероятности теорема Байеса, в частности, помогает в качестве принципиальной основы для объединения предшествующих знаний и эмпирических данных.
Важность вероятностных моделей машинного обучения
Одно из основных преимуществ вероятностных моделей заключается в том, что они дают понятие неопределенности, связанной с прогнозированием. Мы видим, насколько уверена модель машинного обучения в своих прогнозах. Например, если вероятностный классификатор присваивает классу «собака» вероятность 0,9, а его положение — 0,6, это означает, что классификатор особенно уверен в том, что животное на изображении — собака. Эти понятия, связанные с неопределенностью и уверенностьюмашинное обучениеОчень ценно для таких приложений, как диагностика заболеваний и автономное вождение. Кроме того, вероятностные результаты полезны для многих методов, связанных с машинным обучением, таких как активное обучение.
Байесовский вывод
В основе байесовского вывода лежит правило Байеса, иногда называемое теоремой Байеса. Он используется для определения вероятности гипотезы с предыдущими знаниями. Он основан на условной вероятности.
правило Байеса
Преподобный Томас Байес (1702–1761)
Формула теоремы Байеса называется.
P (hypothesis│data) = P (data│hypothesis) P (hypothesis) / P (data)
- Правило Байеса гласит, как рассуждать о гипотезах на основе данных.
- Обучение и предсказание можно понимать как формы рассуждения.
Типичный байесовский вывод и байесовские правила требуют механизма для прямого регулирования целевого апостериорного распределения. Например, процесс логического вывода представляет собой одностороннюю процедуру, которая планирует раннее распределение в апостериорном плане путем изучения эмпирических данных. В обучении с учителем и обучении с подкреплением наша конечная цель — поставить апостериорную задачу обучения. Это применяется с некоторой мерой производительности, такой как ошибка прогнозирования или ожидаемое вознаграждение.
Прямое апостериорное распределение должно иметь небольшую ошибку предсказания или большое ожидаемое вознаграждение. Кроме того, сбор данных о людях путем создания крупномасштабных баз знаний и широко распространенных краудсорсинговых платформ требует включения внешней информации в статистическое моделирование и выводы при создании интеллектуальных систем.
Байесовский алгоритм Наихе
Алгоритм Найхе Байеса — это алгоритм обучения с учителем. Он был создан на основе теоремы Байеса для решения задач сортировки. Он в основном используется для классификации текста, включая многомерные обучающие наборы данных. Наивный байесовский алгоритм — это простой и наиболее эффективный алгоритм классификации, который поддерживает создание быстрых моделей машинного обучения, способных создавать быстрые прогнозы.
Алгоритм Наивного Байеса является вероятностным классификатором. Это означает, что он прогнозируется на основе вероятности объекта. Есть более или менее популярные примеры алгоритма Найефа-Байеса.
- Фильтрация спама
- анализ настроений
- Категоризировать статьи
Узкородственная модель — логистическая регрессия. Иногда это называют «привет, мир» современного машинного обучения. Не обманывайтесь его названием, потому что log reg — это алгоритм классификации, а не алгоритм регрессии. Подобно Наивному Байесу, он был весьма полезен до сих пор, потому что log reg намного старше компьютеров благодаря своей скромной и универсальной природе. Часто это первое, что ученый пробует на наборе данных, чтобы понять стоящую перед ним задачу классификации.
Типы наивных байесовских моделей
Существуют следующие три типа байесовских моделей Найхе.
- Модель Гаусса: Модель Гаусса отвечает за мониторинг нормального распределения признаков. Это означает, что если аналитик берет непрерывные значения, а не отдельные, модель предполагает, что эти значения проверены на основе распределения Гаусса.
- многочлен. Он используется, когда данные представляют собой полиномиальную петлю. Он в основном используется для задач классификации документов. Это означает, что конкретный документ относится к такой категории, как спорт, образование и политика. Этот классификатор использует соотношение слов в качестве предикторов.
- Бернулли: классификаторы Бернулли работают аналогично полиномиальным классификаторам. Тогда предикторы являются автономными булевыми переменными. Например, если определенное слово появляется или не появляется в файле. Эта модель также хорошо известна в задачах классификации документов.
Использование байесовской модели Найефа
Был использован наивный байесовский классификатор.
- для кредитного скоринга.
- в классификации медицинских данных.
- Он может быть использован для прогнозирования в реальном времени, потому что Naïve Bayes Classifier - это увлеченный учащийся.
- Текстовая классификация, например фильтрация спама и анализ тональности.
Преимущества и недостатки байесовских классификаторов
преимущество
- Найхе Байес — это простой и быстрый алгоритм машинного обучения, который может предсказать ситуацию с классом наборов данных.
- Его можно использовать для бинарной классификации, а также для многоклассовой классификации.
- Например, он хорошо работает в многоклассовом прогнозировании по сравнению с другими алгоритмами.
- Это самый широкий выбор для задач классификации текста.
недостаток
- Наивный Байес считает все виды независимыми или неродственными. Следовательно, он не может изучать ассоциации между функциями.
целевая функция
Мы можем посмотреть на его целевую функцию, чтобы определить, является ли конкретная модель вероятностной. Мы хотим улучшить модель, чтобы она превосходно справлялась с конкретной задачей машинного обучения. Цель наличия целевой функции состоит в том, чтобы предоставить значение на основе выходных данных модели. Следовательно, оптимизация может быть выполнена за счет большего использования или уменьшения реальной стоимости. Как правило, цель состоит в том, чтобы уменьшить ошибку прогнозирования машинного обучения. Поэтому мы описываем так называемые функции потерь, такие как целевая функция и попытка уменьшить функцию потерь на этапе обучения модели машинного обучения.