08 BDT (Дерево усиления)
Давайте сначала взглянем на простое дерево решений повышения, Дерево повышения — это интегрированный метод обучения, основанный на дереве решений CART в качестве базового ученика.
Усиленное дерево на самом деле представляет собой аддитивную модель и алгоритм прямого распределения, который выражается как
На шаге m алгоритма прямого распределения при текущей модели, решать
получить m-е дерево решений. Разница между повышением деревьев для разных задач заключается в различии функций потерь, таких как экспоненциальная функция потерь для классификации и потеря квадратной ошибки для регрессии.
Когда усиленное дерево использует квадрат функции потерь, m-я итерация выражается как
Назовите r остатком, поэтому m-е дерево решенийсоответствует этому остатку. Следует отметить, что базовое дерево CART обучаемого в алгоритме повышенного дерева является деревом регрессии.
09 GBDT (Дерево повышения градиента)
Полное название GBDT: Gradient Boosting Decision Tree, то есть градиентное бустинговое дерево решений, под которым понимается градиентное бустинг + дерево решений. Фридман предлагает аппроксимацию с использованием наискорейшего спуска для соответствия базовому учащемуся с использованием отрицательного градиента функции потерь:
Для удобства вывода умножьте на 1/2 перед функцией потерь
Взяв производную от F (Xi), имеем
Остаток является обратным градиенту, т.е.
Используйте отрицательные градиенты в качестве остатков для подгонки в BDT.
Процесс повышения градиента GBDT
Вход: тренировочный набор:
инициализация:
for t=1 to T do
- Вычислить отрицательный градиент
- Установите остаток, чтобы получить базового ученика
- Получите веса базового обучения:
- возобновить
Разница между GBDT и повышающим деревом заключается в том, что остаток заменяется градиентом, а каждый базовый учащийся имеет соответствующие веса параметров.
Процесс ГБДТ
GBDT - это дерево решений, использующее повышение градиента (CART). Регрессия дерева CART делит пространство на K непересекающихся областей и определяет выход k каждой области. Математическое выражение выглядит следующим образом
Поток GBDT (регрессия)
Вход: Тренировочный набор:
инициализация:
for t-1 to T do
-
Вычислить отрицательный градиент:
-
Сопоставьте невязку, чтобы получить дерево регрессии, и получите площадь листового узла t-го дерева
-
возобновить
получить аддитивную модель
Поток (классификация) GBDT
GBDT для классификации по-прежнему использует дерево регрессии CART, использует softmax для отображения вероятностей, а затем подбирает остатки вероятностей.
For m=1 to M do:
- For k=1 to K do:
- endFor