2.2 Гарантии для конечного набора допущений — непротиворечивый случай
В случае с прямоугольником, выровненным по осям, который мы рассмотрели, алгоритм возвращает предположениевсегда непротиворечива, т.е. находится в обучающей выборкене признает ошибок. В этом разделе мы предлагаем общую оценку сложности выборки или, что то же самое, оценку обобщения для непротиворечивых предположений о мощностиНабор допущений в данном случае ограничен. Поскольку мы рассматриваем непротиворечивые предположения, мы примем целевую концепцию существует середина.
Теорема 2.1. Граница обучения — конечный H, непротиворечивый случай
Предполагать От прибыть Конечный набор функций для карты. Предполагать это алгоритм для любого целевого понятияи образцы iidВозвращает последовательную гипотезу. Тогда для любого, неравенствоустановлено, если
Этот образец результата сложности допускает следующие эквивалентные утверждения в качестве границ обобщения:, с вероятностью не менее 1 − δ,
доказыватьфиксированный, мы не знаем, какая консенсусная гипотеза была выбрана алгоритмом A. Это предположение также зависит от обучающих выборок.. Следовательно, нам нужно дать непротиворечивую границу сходимости, которая справедлива для множества всех непротиворечивых гипотез, которые, что более важно, включают. Поэтому мы ограничим некоторыеНепротиворечивый и ошибка больше, чемВероятность:
Теперь рассмотрим любую гипотезу,в.Потом,Вероятности обучающих выборок, взятых в i.i.d.согласуется с вышеизложенным, т. е. находится вВ любой точке нет ошибки, и границы могут быть определены как:
Предыдущее неравенство означает, что
- Установите правую часть равной δ и найдите ε, чтобы получить доказательство.
Теорема утверждает, что когда множество гипотезКонечное время, алгоритм консенсусаявляется алгоритмом обучения PAC, поскольку сложность выборки, заданная (2.8), определяется выражением и полиномиальное доминирование в . Как показано в (2.9), верхняя граница ошибки обобщения непротиворечивого предположения определяется размером выборкиусловия, которые уменьшаются в зависимости от . Это общий факт: как и ожидалось, алгоритмы обучения выигрывают от больших помеченных обучающих выборок. Однако, гарантированный теоремойСкорость снижения особенно благоприятна.
Стоимость разработки алгоритма консенсуса заключается в использовании большего набора гипотез, содержащего целевую концепцию.. Конечно, верхний предел (2.9) прии увеличить. Однако эта зависимость является только логарифмической. Обратите внимание на терминологию, или родственный терминотличается от него постоянным множителем, который можно интерпретировать как представляющийнеобходимое количество цифр. Следовательно, обобщение теоремы гарантируется отношением числа битов,и размер выборкиконтроль.