2.3 Гарантии для конечного набора допущений — несоответствие
В самом общем случае в H могут отсутствовать допущения, согласующиеся с размеченными обучающими выборками. На самом деле это типичный случай на практике, когда проблема обучения может быть несколько сложной, или концептуальная аналогия более сложна, чем набор допущений, используемых алгоритмом обучения. Однако противоречивые предположения с небольшим количеством ошибок на обучающих выборках могут быть полезны и, как мы увидим, могут выиграть от благоприятных гарантий при определенных предположениях. Этот раздел предоставляет гарантии обучения для этого противоречивого случая и ограниченного набора предположений. Чтобы получить гарантии обучения в этой более общей ситуации, мы будем использоватьHoeffdingНеравенство (теорема D.1) или следующее следствие, которое включает ошибку обобщения и эмпирическую ошибку для одной гипотезы.
Вывод 2.1
фиксированный и разрешиПредставляет размер i.i.d.образец. Тогда для любой гипотезы, имеет место следующее неравенство:
Согласно границе объединения это означает следующее двустороннее неравенство:
доказыватьРезультат точно следует теореме D.1. Положим правую часть (2.16) равнойи решитьНемедленно дает следующие оценки для одной гипотезы.
Следствие 2.2. Границы обобщения — единственная гипотеза.
исправить предположение. Тогда для любого, вероятность выполнения следующего неравенства не менее:
Следующий пример иллюстрирует этот вывод на простом примере.
Пример 2.6 Подбрасывание монеты
Представьте, что вы подбрасываете необъективную монету, вероятность выпадения орла равна, пусть наша гипотеза будет той, которая всегда угадывает положительные. Тогда истинная частота ошибок равнаи эмпирическая частота ошибок,в— лобовая вероятность, основанная на обучающих выборках, составленных i.i.d. Следовательно, следствие 2.2 принимает по крайней мерегарантия вероятности.
Следовательно, если мы выбереми используйте размерВыборка , с вероятностью не менее,ноГарантируются следующие приблизительные качества:
когда в образцеМожем ли мы легко применить вывод 2.2, чтобы ограничить гипотезы, возвращаемые алгоритмом обучения при обучении наошибка обобщения? нет потому чтоНе фиксированное предположение, а случайная величина, зависящая от выбранных обучающих выборок. Отметим также, что, в отличие от фиксированной гипотезы, для фиксированной гипотезы ожидаемое значение эмпирической ошибки равно ошибке обобщения (уравнение 2.3), ошибка обобщенияявляется случайной величиной, обычно отличной от ожидаемого значения, последняя является константой. Поэтому, как и при доказательстве в непротиворечивом случае, нам нужно получить непротиворечивую оценку сходимости, которая является a для всех предположенийСуществуют границы с высокой вероятностью установления.