из arXiv,Авторы: Тони Дуан, Ананд Авати и др., составлено Heart of the Machine, участие: Panda.В этой статье исследователи из Стэнфорда предлагают метод повышения градиента NGBoost для решения технических трудностей в общем вероятностном прогнозировании, которые неразрешимы с помощью существующих методов повышения градиента.
Natural Gradient Boosting (NGBoost/Natural Gradient Boosting) — это алгоритм, который в общем случае привносит вероятностную прогностическую силу в повышение градиента. Прогностические оценки неопределенности имеют решающее значение во многих приложениях, таких как прогнозирование погоды и медицины. Естественным способом количественной оценки этой неопределенности является вероятностное прогнозирование, которое выводит полное распределение вероятностей по всему пространству результатов. Машины повышения градиента добились широкого успеха в задачах прогнозирования структурированных входных данных, но в настоящее время не существует простой схемы повышения вероятностного прогнозирования действительных выходных данных. NGBoost — это метод повышения градиента, который использует Natural Gradient для решения технических проблем в общем вероятностном прогнозировании, с которыми трудно справиться с помощью существующих методов повышения градиента. Этот недавно предложенный метод является модульным, с гибким выбором базовых учащихся, распределения вероятностей и критериев оценки. Исследователи проводят эксперименты с наборами данных множественной регрессии, и результаты показывают, что NGBoost конкурентоспособен как в оценке неопределенности, так и в традиционных метриках.
Ссылка: https://arxiv.org/pdf/1910.03225v1.pdf
введение
Многие реальные задачи контролируемого машинного обучения имеют табличные характеристики и реальные цели. Но модели редко должны быть абсолютно уверены в своих прогнозах. В таких задачах важна оценка неопределенности в результатах прогнозирования, особенно когда результаты прогнозирования напрямую связаны с автоматизированным принятием решений, поскольку оценки вероятностной неопределенности очень полезны при определении отступлений от действий человека в важных рабочих процессах.
А Gradient Boosting Machines (GBM) — это семейство высокомодульных методов, которые хорошо работают со структурированными входными данными, даже когда наборы данных относительно малы. Однако эта вероятностная интерпретация малопригодна, если предполагается, что дисперсия постоянна. Прогнозируемое распределение должно иметь как минимум две степени свободы (два параметра), чтобы эффективно отражать величину и неопределенность прогнозируемых результатов. Именно эта проблема одновременного повышения нескольких параметров базового ученика затрудняет обработку вероятностных прогнозов GBM, и NGBoost может решить эту проблему, используя естественные градиенты.
В этой статье представлен Natural Gradient Boosting, модульный алгоритм повышения вероятностного прогнозирования, который использует естественные градиенты для гибкой интеграции различных модулей:
Базовые обучающие элементы (например, деревья решений)
Параметрическое распределение вероятностей
Правила подсчета очков (MLE, CRPS и т. д.)
NGBoost:Повышение естественного градиента
Алгоритм NGBoost — это метод обучения с учителем для вероятностного прогнозирования.Способ достижения повышения состоит в том, чтобы предсказать параметры условного распределения вероятностей в виде функции. Эксперименты исследователей здесь сосредоточены на реальных выходных данных, но они также говорят, что все методы могут использоваться для прогнозирования в других режимах, таких как классификация и прогнозирование времени события.
Базовый ученик (ж)
Параметрическое распределение вероятностей (P_θ)
Соответствующее правило(я) подсчета очков
На каждой итерации m для каждой выборки i алгоритм вычисляет естественный градиент g_i правила подсчета очков S на основе прогнозируемых параметров результата для этой выборки до этого этапа. Обратите внимание, что g_i и размерность согласуются с θ. Набор базовых учеников f для этой итерации будет приспособлен для предсказания соответствующего компонента естественного градиента каждой выборки x_i.
эксперимент