Эта статья является основной записью «Wu Enda Machine Learning».
Линейная регрессия
Функция стоимости Функция стоимости
Его цели:Выберите параметры модели, которые минимизируют сумму квадратов ошибки моделирования.
Пакетный градиентный спуск
это скорость обучения, которая определяет, насколько далеко мы идем в направлении, которое больше всего снижает функцию стоимости.При пакетном градиентном спуске мы вычитаем обучение из всех параметров одновременно каждый раз, когда скорость умножается на производную стоимости функция.
заЗначение может попробовать:
Используя метод градиентного спуска, нужно найти производную функции стоимости, а именно:
Время:
Время:
Масштабирование характеристик Масштабирование характеристик (метод стандартных уравнений)
Обеспечение того, чтобы функции имели схожие масштабы, может помочь алгоритму градиентного спуска сходиться быстрее.
всредний,стандартное отклонение
Нормальное уравнение
Для линейных моделей стандартные уравнения являются хорошей альтернативой расчету параметров, когда количество характеристических переменных невелико. В частности, если количество переменных признаков меньше десяти тысяч, я обычно использую метод стандартных уравнений вместо градиентного спуска.
логистическая регрессия
Алгоритм логистической регрессии является алгоритмом классификации, и мы используем его в качестве алгоритма классификации. Это подходит для случая, когда значение метки является дискретным, например: 1 0 0 1.
Функция гипотезы Функция гипотезы
Функция стоимости Функция стоимости
градиентный спуск
Как и в случае с линейной регрессией, вы также можете использоватьАлгоритм пакетного градиентного спусканайти функцию минимальной стоимости:
Repeat {
}
По сравнению с линейной регрессией функция прогнозирования логистической регрессии (функция гипотезы)совершенно другое.
Мультикатегориальная классификация: один ко многим
Логистическую регрессию можно использовать для достижения классификации «один ко многим» Конкретная идея заключается в следующем:
Отмечаем один из классов как класс forward, то все остальные классы помечаются как отрицательные классы, а эта модель записывается как. Затем аналогичным образом мы выбираем другой класс, чтобы пометить его как прямой класс., а затем пометьте все остальные классы как отрицательные классы и запишите эту модель как,Так далее и тому подобное. В итоге мы получаем серию моделей, сокращенно обозначаемую как:в:
Наконец, когда нам нужно сделать прогноз, мы проходим по всем классификаторам и для каждой входной переменной выбираем наиболее вероятную выходную переменную.
Регуляризация
Регуляризация — это метод, используемый для решения проблемы переобучения модели. Он сохраняет все функции, но уменьшает размер параметров.
Другой способ: отбросить некоторые функции, которые не помогают нам правильно прогнозировать. Это может быть ручной выбор функций, которые нужно сохранить, или использование некоторого алгоритма выбора модели (например, PCA).
Регулярная линейная регрессия
Нам нужно ввести член регуляризации в градиентном спуске
Упростите эту формулу:
Видно, что изменение алгоритма градиентного спуска регуляризованной линейной регрессии: каждый раз на основе исходных правил обновления алгоритма,значение уменьшается на дополнительное значение
Регуляризируйте нормальное уравнение:
Регулярная логистическая регрессия
Формула регуляризации для логистической регрессии аналогична линейной регрессии, но предполагает, что функция.