Учебник Eat Melon — линейная регрессия

машинное обучение искусственный интеллект

Это 9-й день моего участия в ноябрьском испытании обновлений, подробности о событии:Вызов последнего обновления 2021 г.

Одномерная линейная регрессия

Принцип алгоритма

y = wx + b - процесс нахождения w и b - нахождение w и b с минимальной среднеквадратичной ошибкой [наименьшие квадраты] / нахождение оценки максимального правдоподобия

Наименьших квадратов

image.png

Найдите расстояние от точки до линии, параллельной оси y [ошибка xi между точкой и линией] - линейная регрессия
ΣXi - среднеквадратическая ошибка

То есть найти линию с наименьшей среднеквадратичной ошибкой, то есть найти w и b, которые минимизируют среднеквадратичную ошибку, что называется методом наименьших квадратов.

Найдите расстояние до точки, перпендикулярной оси Y — ортогональная регрессия

image.png

оценка максимального правдоподобия

Найдите распределение с наибольшей вероятностью появления выборки

использовать

Найдите значение параметра распределения вероятностей [например: σ, μ нормального распределения]

выражение

image.png

функция логарифмического правдоподобия

Поскольку оценка максимального правдоподобия представляет собой мультипликативно-логарифмически упрощенный составной мультипликативный член

image.png

Оценка максимального правдоподобия с учетом ошибок

y = wx + b + ε
ε- Можно предположить, что это нормальное распределение со средним значением 0 (ошибка обычно колеблется около 0, центральная предельная теорема - соответствует нормальному распределению)
∴ — получите функцию плотности вероятности ε — замените ε на y-wx-b, тогда вы получите нормальное распределение y, μ равно (wx+b)

image.png

image.pngЗатем по-прежнему найдите w и b в соответствии с предыдущим методом оценки максимального правдоподобия.

image.png

image.png

найти w и b

image.png

1. Найдите выпуклую функцию

image.png

  1. Найдите матрицу Гессе
  2. Определить, является ли матрица положительно определенной

Найдите четыре частные производные по отдельностиimage.png

image.png

image.png

image.png

image.png

2. Найдите наибольшую ценность

Задача нахождения максимального значения выпуклой функции

Дополнительные очки знаний

  1. Выпуклая функция - аналогична ⚪, линия, образованная любыми двумя точками круга, находится внутри круга, а вогнутая функция не обязательно

image.png

image.png

Вогнутая вниз функция в машинном обучении является выпуклой функцией, потому что это процесс поиска оптимального решения.

image.png

  1. Градиент - Первая производная многомерной функции - Найдите каждую первую частную производную

image.png3. Матрица Гессе — вторая производная многомерной функции

image.pngПреобразование суммы в вектор - numpy решает быстрее

Множественная линейная регрессия

Множественные функции - x становится векторным скаляром - векторная производная - градиент - частная производная для каждого компонента

Логарифмическая регрессия шансов — алгоритм классификации

На основе линейной модели устанавливается функция отображения для достижения цели классификации.

Линейный дискриминантный анализ для бинарной классификации

Принцип алгоритма

После обучения выборки проектируются:

  1. Неоднородные центры выборки как можно дальше
  2. Одна и та же выборочная дисперсия как можно меньше