Основные понятия логистической регрессии
Что такое логистическая регрессия? Логистическая регрессия - это такой процесс: столкнувшись с проблемой регрессии или классификации, установите функцию стоимости, затем итеративно решите оптимальные параметры модели с помощью методов оптимизации, а затем протестируйте, чтобы проверить качество нашей решенной модели.
Хотя логистическая регрессия имеет в своем названии «регрессию», на самом деле это метод классификации, в основном используемый для задач с двумя классификациями (то есть есть только два выхода, представляющие две категории соответственно).
В регрессионной модели y является качественной переменной, такой как y = 0 или 1, а логистический метод в основном используется для изучения вероятности возникновения определенных событий.
Logistic Regression
Процесс получения
Его выражение:
можно найти послеsigmoid
После преобразования функции выходное значение находится в[0, 1]
Между ними вывод можно рассматривать как вероятность, и ниже приводится подробный вывод:
получить
为了计算方便, 我们只讨论二分类.
Во-первых, логистическая регрессия делает предположение,两个类别都服从均值不同,方差相同(方便推导)的高斯分布
Распределение Гаусса является относительно простым в обращении, и из центральной предельной теоремы также известно, что оно в конечном итоге сходится к распределению Гаусса. С точки зрения теории информации, когда известны среднее значение и дисперсия (хотя вы не знаете точное среднее значение и дисперсию, согласно теории вероятностей, когда размер выборки достаточно велик, среднее значение и дисперсия выборки стремятся к среднему значению и дисперсии). с вероятностью 1), распределение Гаусса — это распределение с наибольшей энтропией, почему энтропия должна быть наибольшей? Поскольку распределение максимальной энтропии может равномерно распределить ваш риск (для получения одного и того же значения будет две точки, неопределенность очень велика), это все равно, что не класть яйца в одну корзину, подумайте о бинарном поиске. средняя точка каждый раз выбирается в качестве точки поиска? Просто чтобы распределить риск (предполагая, что равная дисперсия предназначена только для удобства вычислений).
风险
в,это риск, когда выборка прогнозируется равной 0,это риск, когда выборка прогнозируется равной 1,является фактической меткой образца какj
, но предсказал это какi
связанный с этим риск.
Мы не верим, что прогноз верный и риска нет, поэтомуиоба равны 0, кроме того, мы считаем, что риск равен, когда метка равна 0, а прогноз равен 1, и когда метка равна 1, а прогноз равен 0, поэтомуиРавный, для удобства обозначим его как λ. Но в некоторых областях, таких как медицина, управление рисками и т. д., эти λ в большинстве случаев не равны, и иногда мы выбираем «лучше убить по ошибке тысячу, чем отпустить одного»;
Тогда наше упрощенное выражение:
По принципу минимизации риска мы обычно выбираем менее рискованный.
Например:
Это означает, что прогноз0
риск класса меньше, чем прогнозировалось для первого1
класс рисков.
Вы можете получить:
означает предсказание1
Вероятность класса меньше, чем0
классовая вероятность.
Логарифмируем обе части неравенства
По формуле Байеса:
Мы начали предполагать, что две категории подчиняются распределению Гаусса с неравным средним значением и равной дисперсией, Согласно формуле распределения Гаусса:
高斯分布
Игнорировать постоянный член (дисперсии также равны)
C
Чаншу, вы можете использовать матричное представление.
详细推导
Возведение значений в степень и расчет уравнений со знаком равенства.
Вот несколько скриншотов реализации
Для оптимизации используем алгоритм градиентного спуска.
Функция кросс-энтропийных потерь
окончательный эффект
Посмотреть полный код на компьютере
———————————— Mo (веб-сайт: momodel.cn) — это платформа моделирования искусственного интеллекта, поддерживающая Python, которая может помочь вам быстро разрабатывать, обучать и развертывать приложения ИИ. Мы надеемся, что вы можете присоединиться.