2 Структура обучения PAC (стр. 17-18)

машинное обучение

2.2 Гарантии для конечного набора допущений — непротиворечивый случай

В случае с прямоугольником, выровненным по осям, который мы рассмотрели, алгоритм возвращает предположениеhSh_Sвсегда непротиворечива, т.е. находится в обучающей выборкеSSне признает ошибок. В этом разделе мы предлагаем общую оценку сложности выборки или, что то же самое, оценку обобщения для непротиворечивых предположений о мощностиH|H|Набор допущений в данном случае ограничен. Поскольку мы рассматриваем непротиворечивые предположения, мы примем целевую концепциюcc существует HH середина.

Теорема 2.1. Граница обучения — конечный H, непротиворечивый случай

Предполагать HH От XX прибыть YYКонечный набор функций для карты. Предполагать AAэто алгоритм для любого целевого понятияc е Hс е Ни образцы iidSSВозвращает последовательную гипотезуhS:R^(hS) = 0h_S: \широкая шляпа R(h_S) = 0. Тогда для любогоϵ,δ > 0\epsilon,δ > 0, неравенствоPrSDm[R(hS)  ϵ]  1δ\ underset {S ∼ D_m} {Pr} [R (h_S) ≤ \ эпсилон] ≥ 1−δустановлено, если

m1ϵ(logH+log1δ).(2.8)m\ge\frac{1}{\epsilon}\bigg(log|H|+log\frac{1}{δ}\bigg).(2.8)

Этот образец результата сложности допускает следующие эквивалентные утверждения в качестве границ обобщения:ϵ,δ > 0\эпсилон, δ > 0, с вероятностью не менее 1 − δ,

R(hs)1m(logH+log1δ).(2.9)R(h_s)\leq \frac{1}{m}\bigg(log|H|+log\frac{1}{δ}\bigg).(2.9)

доказыватьфиксированныйϵ>0\epsilon>0, мы не знаем, какая консенсусная гипотеза была выбрана алгоритмом AhS е Hh_S ∈ H. Это предположение также зависит от обучающих выборок.SS. Следовательно, нам нужно дать непротиворечивую границу сходимости, которая справедлива для множества всех непротиворечивых гипотез, которые, что более важно, включаютhSh_S. Поэтому мы ограничим некоторыеh е Hч е ННепротиворечивый и ошибка больше, чемϵ\epsilonВероятность:

Pr[hеH:R^(h)=0R(h)>ϵ]=Pr[(h1еH,R^(h1)=0R(h1)>ϵ)(h2еH,R^(h2)=0R(h2)>ϵ)...]hеHPr[R^(h)=0R(h)>ϵ](Ограничения)hеHPr[R^(h)=0R(h)>ϵ](Определение условной вероятности)\begin{align} & \quad Pr[\exists h\in H:\widehat R(h)=0\land R(h)>\epsilon]\\ &=Pr[(h_1\in H,\widehat R (h_1)=0\land R(h_1)>\epsilon)\lor (h_2\in H,\widehat R(h_2)=0\land R(h_2)>\epsilon)\lor ...]\\ & \le \sum_{h\in H}Pr[\widehat R(h)=0\land R(h)>\epsilon] \quad\quad\quad\quad\quad\quad(совместное ограничение)\\ &\ le \sum_{h\in H}Pr[\widehat R(h)=0 | R(h)>\epsilon]\quad\quad\quad\quad\quad\quad\quad(определение условной вероятности) \end {выровнено}

Теперь рассмотрим любую гипотезуhеHh\in HR(h)>ϵR(h)>\epsilon.Потом,hhВероятности обучающих выборок, взятых в i.i.d.SSсогласуется с вышеизложенным, т. е. находится вSSВ любой точке нет ошибки, и границы могут быть определены как:

Pr[R^(h)=0R(h)>ϵ](1ϵ)m.Pr[\widehat R(h)=0|R(h)>\epsilon]\le(1-\epsilon)^m.

Предыдущее неравенство означает, что

Pr[hеH:R^(h)=0R(h)>ϵ]H(1ϵ)m.Pr[\exists h\in H:\widehat R(h)=0\land R(h)>\epsilon]\le |H|(1-\epsilon)^m.
  • Установите правую часть равной δ и найдите ε, чтобы получить доказательство.

Теорема утверждает, что когда множество гипотезHHКонечное время, алгоритм консенсусаAAявляется алгоритмом обучения PAC, поскольку сложность выборки, заданная (2.8), определяется выражением1/ϵ1/\epsilon и 1/δ1/δполиномиальное доминирование в . Как показано в (2.9), верхняя граница ошибки обобщения непротиворечивого предположения определяется размером выборкиmmусловия, которые уменьшаются в зависимости от . Это общий факт: как и ожидалось, алгоритмы обучения выигрывают от больших помеченных обучающих выборок. Однако, гарантированный теоремойO(1/m)O(1/m)Скорость снижения особенно благоприятна.
Стоимость разработки алгоритма консенсуса заключается в использовании большего набора гипотез, содержащего целевую концепцию.HH. Конечно, верхний предел (2.9) приH|H|и увеличить. Однако эта зависимость является только логарифмической. Обратите внимание на терминологиюlog Hlog |H|, или родственный терминlog2 Hlog_2 |H|отличается от него постоянным множителем, который можно интерпретировать как представляющийHHнеобходимое количество цифр. Следовательно, обобщение теоремы гарантируется отношением числа битов,log2 Hlog_2 |H|и размер выборкиmmконтроль.