фокус
- особенность:
- Модель:
- Стратегия:
Глава первая Введение
1.1 Основная терминология
-
классификация:Прогнозируемое значение является дискретным, когда есть только две категории, относительно "Мультикласс"(многоклассовая классификация) называется"двухклассный"(бинарная классификация), обычно один из классов называется "положительный класс" (positive class), другой класс - "отрицательный класс" (negative class).
-
регрессия:предсказывает непрерывное значение, например, спелость арбуза 0,95, 0,37....
-
кластеризация: разделите набор обучающих данных на несколько групп, каждая группа называется «кластером», и эти автоматически сформированные кластеры могут быть полезны для некоторыхПотенциальные концепции, аннотированные не человекомРазделять. Такое обучение помогает мне понять внутренние законы данных.
-
обучение с учителем и обучение без учителя: в соответствии сИмеют ли обучающие данные информацию о меткахУчебные задачи можно условно разделить на две категории. Среди них классификация и регрессия являются представителями первого, а кластеризация — представителем второго.
-
обобщение:Способность изученной модели применять к новым образцам, называемая способностью к обобщению.
1.2 Пространство гипотез
- пространство версий: процесс обучения основан на ограниченном выборочном обучающем наборе, поэтому может быть несколько гипотез, согласующихся с обучающим набором, то есть существует «набор гипотез», совместимый с обучающим набором, который называется «пространством версий».
1.3 Индуктивные предпочтения
-
индуктивное смещение: предпочтение алгоритма машинного обучения определенному типу гипотезы в процессе обучения, называемое «индуктивным предпочтением» или, для краткости, «предпочтением». Любой эффективный алгоритм машинного обучения должен иметь индуктивный уклон, иначе он будет сбит с толку гипотезами в пространстве гипотез, которые кажутся «эквивалентными» на обучающем наборе и не могут дать детерминированные результаты обучения.Алгоритм обучения, который хорошо справляется с некоторыми проблемами, может плохо работать с другими, и индуктивное предпочтение самого алгоритма обучения часто играет решающую роль в том, подходит ли задача.
-
бритва Оккама: широко используемый и самый основной принцип в исследованиях естественных наук, а именно:Если несколько гипотез согласуются с наблюдениями, выберите самую простую из них.".
Глава 2. Оценка и выбор модели
2.1 Эмпирическая ошибка и переобучение
-
ошибка обучения или эмпирическая ошибка: Учащийся находится вна тренировочном комплексеошибка.
-
ошибка обобщения: существуетновый образецошибка.
-
переоснащение: Когда учащийся усваивает обучающие образцы «слишком хорошо», он, вероятно,Возьмите некоторые характеристики обучающих выборок в качестве общих свойств, которыми будут обладать все потенциальные выборки., это явление, которое приводит к ухудшению производительности обобщения, называется переоснащением.Полностью избежать переоснащения невозможно, все, что оно может сделать, это «смягчить»или уменьшить его риск.
-
недооснащение: По отношению к переоснащению это означаетОбщий характер обучающих выборок изучен плохо. Недообученность обычно вызвана плохой способностью к обучению, а затемлегче преодолеть.
2.2 Метод оценки
-
задержка:Разделите набор данных D непосредственно на два взаимоисключающих набора: один для обучающего набора S, а другой для тестового набора T.. Однако, поскольку обучающая выборка делится на тестовую, уменьшение обучающей выборки снижает достоверность результатов оценки. Обычной практикой является использование примерно 2/3~4/5 выборок для обучения и оставшихся выборок для тестирования.
-
перекрестная проверка:Разделите набор данных на k взаимоисключающих подмножеств одинакового размера, пройдите обучение k раз, каждый раз используйте объединение k-1 подмножеств в качестве тренировочного набора, а оставшееся подмножество в качестве тестового набора; окончательный результат - это среднее значение k результаты теста. Стабильность и достоверность результатов оценки метода перекрестной проверки в значительной степени зависят от значения k, поэтому, чтобы подчеркнуть этот момент, метод перекрестной проверки обычно называют «к-кратной перекрестной проверкой» (k-fold cross validation). перекрестная проверка). Когда k = количество выборок, получается частный случай метода перекрестной проверки:оставить одинМетод (Leave-One-Out, называемый LOO). Обучающая выборка, используемая в методе исключения одного, всего на одну выборку меньше, чем исходная выборка тестовых данных, поэтому результаты оценки часто считаются более точными, но когда набор данных относительно велик, вычислительные затраты на обучение м модели могут быть невыносимы.
-
Начальная загрузка:Самостоятельная выборка m раз с заменой из набора данных D, содержащего m, сгенерировать набор данных D' в качестве обучающего набора. Начальная загрузка полезна, когда набор данных небольшой и сложно эффективно разделить набор для обучения/тестирования.
-
Настройка параметров и окончательная модель: во время оценки и выбора модели, в дополнение к выбору применимого алгоритма обучения, также необходимо установить параметры алгоритма, которые обычно называют «настройкой параметров» или «настройкой параметров» для краткости. Обычной практикой на практике является выбор диапазона и изменение размера шага для каждого параметра.Например, если размер шага составляет 0,05 в диапазоне [0, 0,2], фактически необходимо оценить 5 значений параметра-кандидата.
2.3 Показатели производительности
Оценка способности учащегося к обобщению требует не только подходящего экспериментального метода оценки, но и стандарта оценки для измерения способности модели к обобщению, т.е.мера эффективности.
-
Частота ошибок: Частота ошибокКоличество неправильно классифицированных образцовпроцент от общей выборки.
-
точность: точностьКоличество правильно классифицированных образцовпроцент от общей выборки.
-
Точность и отзыв: уровень точности можно понимать как «какой процент полученной информации представляет интерес для пользователя». Отзыв — это «сколько информации, интересующей пользователя, было извлечено». Если вам нужна высокая скорость припоминания, вы намеренно улучшите свое понимание выбора, в результате чего некоторые варианты будут упущены, что снизит скорость припоминания; если вам нужна высокая скорость припоминания, вы попытаетесь выбрать все возможные варианты, что приведет к некоторым ошибкам. неотличные элементы также включены, что снижает точность. такТочность и полнота — противоречащие друг другу меры..
-
Мера F1: определяется на основе гармонического среднего значения точности и полноты. F1 этоОсобый случай, когда β=1, когда полнота и точность имеют одинаковую относительную важность; для средневзвешенных гармоник, когда β>1, отзыв оказывает большее влияние; когда β
2.4 Сравнительный тест
-
Проверка гипотезы: Распределение частоты ошибок обобщения оценивается по частоте ошибок теста. Проверяются гипотезы о способности отдельных учащихся к обобщению.
-
t-тест перекрестной проверки: Основная идея заключается в том, что если два учащегося имеют одинаковую производительность, у них должна быть одинаковая частота ошибок при тестировании с использованием одного и того же обучающего/тестового набора. Поэтому используйте метод перекрестной проверки k-кратного размера для двух учащихся, чтобы получить коэффициенты ошибок теста двух групп A и B, а затем рассчитайте их по следующей формуле: Когда он меньше критического значенияtα/2, к-1, гипотеза не может быть отвергнута, то есть между двумя учащимися нет существенной разницы; в противном случае существует значительная разница, и учащийся с более низкой средней частотой ошибок имеет лучшую производительность. здесьtα/2, к-1является критическим значением, при котором кумулятивное распределение хвостов равно α/2 в t-распределении с k-1 степенями свободы.
-
перекрестная проверка 5x2: Для t-критерия перекрестной проверки важной предпосылкой для эффективной проверки гипотез является то, что частота ошибок теста является независимой выборкой частоты ошибок обобщения.Однако обычно из-за ограниченных выборок при использовании перекрестной проверки и других экспериментальных методов оценки. , Различные раунды обучения будут в определенной степени перекрываться, что делает коэффициенты ошибок теста фактически не независимыми, что приводит к переоценке вероятности того, что гипотеза верна. Чтобы решить эту проблему, можно использовать метод перекрестной проверки 5x2. То есть выполняется 5 раз 2-кратная перекрестная проверка, и данные случайным образом перемешиваются перед каждой 2-кратной перекрестной проверкой, чтобы разделение данных при 5-кратной перекрестной проверке не повторялось.
-
Тест Макнемара: Для задачи с двумя классами метод пропуска может не только оценить частоту ошибок при тестировании учащихся A и B, но также получить разницу между результатами классификации двух учащихся. Если предполагается, что производительность двух обучаемых одинакова, количество выборок обнаружения ошибок двух обучаемых должно быть равным, а именно, а абсолютное значение разницы равноподчиняться нормальному распределению. Тест Макнемара рассматривает переменную Tχ₂, формула следующая, которая подчиняется распределению χ² с 1 степенью свободы, то есть квадрату стандартной переменной нормального распределения. При значимом α, когда значение вышеуказанных переменных меньше критического значения χα², гипотеза не может быть отклонена, то есть считается, что результаты двух учащихся не имеют существенной разницы; в противном случае гипотеза отклоняется, и производительность двух считается значительно разной, а средняя частота ошибок меньше.Учащийся имеет лучшую производительность.
- Тест Фридмана: по сравнению с t-критерием перекрестной проверки и тестом Макнемара, которые сравнивают производительность двух алгоритмов на одном наборе данных, этот метод чаще подходит, когда нам нужно сравнить несколько алгоритмов на наборе наборов данных. Тест Фридмана сравнивает Tχ² или, чаще, τF, формула следующая, обычно используемое критическое значение теста τF ищет в таблице. Если гипотеза о том, что «все алгоритмы имеют одинаковую производительность», отвергается, это означает, что производительность алгоритмов существенно различается, и для дальнейшего различия алгоритмов требуется «апостериорная проверка». Наиболее часто используется контрольный тест Неменьи.
- Контрольный тест Неменьи: вычисляет диапазон критических значений CD для разницы средних порядковых значений. Формула qɑ выглядит следующим образом, и обычно используемое значение — поиск по таблице.
2.5 Смещение и дисперсия
-
отклонение: смещение мера алгоритма обученияНасколько ожидаемый прогноз отличается от фактического результата, что сразу описывает подгоночную способность самого алгоритма обучения.
-
дисперсия: дисперсия измеряет тот же размерИзменения в эффективности обучения, вызванные изменениями в обучающей выборке, который сразу фиксирует влияние возмущений данных.
-
шум: Шум выражает то, чего может достичь любой алгоритм обучения в текущей задаче.Нижняя граница ожидаемой ошибки обобщения, что сразу отражает сложность самой проблемы обучения.
-
разложение смещения-дисперсии: Люди часто также хотят понять, «почему» у учащегося такая производительность, и декомпозиция смещения-дисперсии является важным инструментом для объяснения эффективности обобщения алгоритмов обучения. Ошибка обобщения может быть разложена на сумму смещения, дисперсии и шума. Разложение смещения-дисперсии показывает, что эффективность обобщения определяется способностью алгоритма обучения, адекватностью данных и сложностью самой задачи обучения. Для данной учебной задачи, чтобы добиться хорошей производительности обобщения, отклонение должно быть небольшим, то есть данные могут быть адекватно подобраны, а дисперсия должна быть небольшой, то есть влияние возмущения данных должно быть небольшим.
-
дилемма смещения-дисперсии: Вообще говоряПредвзятость и дисперсия находятся в конфликте, которая называется дилеммой смещения-дисперсии. Учитывая задачу обучения, предполагая, что мы можем контролировать, насколько хорошо обучен алгоритм обучения, тогдав процессе обучения, способность учащегося к подгонке недостаточно сильна, а нарушения обучающих данных недостаточно, чтобы учащийся значительно изменился.Предвзятость доминирует над частотой ошибок обобщения;По мере углубления обучения, способность учащегося к подгонке постепенно повышается, и учащийся может постепенно усвоить нарушение обучающих данных.Дисперсия постепенно преобладает над частотой ошибок обобщения.; После достаточного обучения способность учащегося к подгонке очень сильна, и небольшое нарушение обучающих данных приведет к значительным изменениям учащегося.Если будут изучены неглобальные характеристики обучающих данных, это произойдетпереоснащение.
Глава 3 Линейные модели
3.1 Основная форма
Линейная модель пытается изучить функцию, которая делает прогнозы на основе линейной комбинации атрибутов, т.е.Обычно записывается в векторной форме как.Линейная модель проста по форме и легко моделируется, но содержит некоторые важные базовые идеи машинного обучения.. Многие более мощные нелинейные модели могут быть получены из линейных моделей путем введения иерархических структур или многомерных отображений.
3.2 Линейная регрессия
- Линейная регрессия: Попытки изучить линейную модель для максимально точного прогнозирования выходных токенов с действительным значением. По заданному набору данных D={(х₁, y₁), (x₂, y₂), ..., (xm, ym)}, где xi=(xi₁; xi₂; ...; xid), и по общей формуле научился, пусть f(xi)≌yi, то есть предполагаемое значение обучаемого приблизительно равно предсказанному значению, из которого мы определяем правила обучаемого w и b. А w и b измеряются путем минимизации среднеквадратичной ошибки, то есть формулы ② и ③ получаются путем вывода ω и b соответственно по следующей формуле ①, и пусть они равны 0 для получения замыкания оптимального решения режима ω и b.
- многомерная линейная регрессия: Более общий случай, когда набор данных D начинается с выборок, описанных атрибутами d. Попытка научиться, такое что f(xi)≌yi. Это называется «множественная линейная регрессия».