Многомерная линейная регрессия
Linear Regression with Multiple Variables
многомерные функции
Несколько переменных могут означать несколько признаков. Теперь мы добавим в модель цен на жилье больше признаков, таких как количество комнат и этажей, чтобы сформировать модель с несколькими переменными.
После добавления дополнительных функций мы вводим новый набор аннотаций:
- n представляет количество функций
- представляет i-й обучающий экземпляр, является i-й строкой в матрице признаков ивектор(vector), В качестве второго обучающего экземпляра
- Представляет собой J-Th функцию I-Th ряд в матрице объектов, то есть J-Th-особенностью I-го экземпляра тренировки.
В линейной функции многомерность означает, что в функции есть несколько x., гипотеза h, поддерживающая многомерность, выражается как:
Параметров в этой формуле n+1, переменных n. Для упрощения формулы введем, Тогда формула в:
В настоящее время параметр в модели представляет собой n + 1-мерный вектор, любой обучающий экземпляр также является n + 1-мерным вектором, а размерность матрицы признаков X равна. Таким образом, формулу можно упростить до:, где верхний индекс T означает транспонирование матрицы, а m — количество экземпляров.
Многомерный градиентный спуск
Подобно одномерной линейной регрессии, в многомерной линейной регрессии мы также строим функцию стоимости, которая представляет собой сумму квадратов всех ошибок моделирования, а именно:
в:
Наша цель, как и в задаче одномерной линейной регрессии, состоит в том, чтобы найти набор параметров, которые минимизируют функцию стоимости. Алгоритм пакетного градиентного спуска для многомерной линейной регрессии:
Точно так же каждый параметр θ выводится один раз, а затем сходится, а значение θ непрерывно оптимизируется.
Мы начинаем со случайного выбора ряда значений параметров, вычисляем все результаты прогнозирования, а затем присваиваем всем параметрам новое значение и так далее до сходимости. Многомерный похож на одномерный, метод производной используется для уменьшения локального наклона, то есть расстояние между целевыми точками становится ближе (функция стоимости становится все меньше и меньше)
Масштабирование функций
Когда мы сталкиваемся с проблемами многомерных признаков, нам необходимо убедиться, что эти признаки имеют одинаковые масштабы, что поможет алгоритму градиентного спуска сходиться быстрее.
Возьмем в качестве примера проблему цены на жилье, предположим, что мы используем два признака, размер дома и количество комнат, значение размера составляет 0-2000 квадратных футов, а значение количества комнат составляет 0-5. , Два параметра - горизонтальные и вертикальные координаты, можно нарисовать контурную карту функции стоимости, и видно, что изображение будет выглядеть очень плоским, а алгоритму градиентного спуска требуется много итераций для сходимости.
Решение состоит в том, чтобы попытаться максимально масштабировать все функции от -1 до 1 (особенность данных).
Самый простой способ сделать:,всредний,является стандартным отклонением.
скорость обучения
Количество итераций, необходимых для сходимости алгоритма градиентного спуска, зависит от модели, и мы не можем предсказать заранее Мы можем построить количество итераций и функцию стоимости для наблюдения, когда алгоритм имеет тенденцию к сходимости.
Существуют также способы автоматической проверки сходимости, такие как сравнение изменения функции стоимости с определенным порогом (например, 0,001), но обычно лучше смотреть на график, подобный приведенному выше.
На каждую итерацию алгоритма градиентного спуска влияет скорость обучения.Если скорость обучения α слишком мала, количество итераций, необходимых для достижения сходимости, будет очень большим; если скорость обучения α слишком велика, каждая итерация может не уменьшить функция стоимости может пересекать локальные минимумы и не сходиться.
Обычно рекомендуется попробовать некоторые скорости обучения: 0,01, 0,03, 0,1, 0,3, 1, 3, 10...
Собственный и полиномиальная регрессия
Например, задача прогнозирования цен на жилье.
источник контента
[1] Стэнфордский курс машинного обучения, 2014 г. Ng Enda.
[2].Стэнфордский университет 2014 Курс машинного обучения Каталог китайских заметок