2 Структура обучения PAC (Страница 18 19)

машинное обучение

Пример 2.2 Логическое соединение слов

Подумайте о том, чтобы узнать больше всегоnnлогические литералыx1,,xnх_1,…,х_пСвязный концептуальный классCnC_n.boolean литералы являются переменнымиxix_i,iе[1,n]i∈[1,n], или его отрицаниеxi\overline x_i. заn=4n=4, пример - союз:x1x2x4x_1∧ \перечеркнутый x_2∧ x_4x2\overline x_2Представляет логический литералx2x_2отрицание.(1,0,0,1)(1,0,0,1)является положительным примером этой концепции, в то время как(1,0,0,0)(1,0,0,0)является отрицательным примером.

Обратите внимание, что дляn = 4n = 4, положительный пример(1,0,1,0)(1,0,1,0)означает, что целевое понятие не может содержать текстx1\overline x_1 и x3\overline x_3, а также не может содержать текстx2x2 и x4x4. Напротив, отрицательный пример не так богат, потому что он не знает своегоnnкакой из битов неправильный. Поэтому простой алгоритм нахождения непротиворечивых гипотез основан на положительных примерах, состоящий из следующего: Для каждого положительного примера(b1,...,bn)(b_1,...,b_n) и i е [1,n]я ∈ [1,n],если bi = 1b_i = 1 но xi\overline x_iисключается как возможный литерал в классе понятий, еслиbi = 0b_i = 0, то исключитьxix_i. Следовательно, конъюнкция всех неисключенных литералов является гипотезой, соответствующей цели. На рис. 2.4 показаны примеры обучающих выборок иn = 6 n = 6 Последовательные предположения в случае.

У нас есть H = Cn = 3n|H| = |Cn| = 3^n, потому что каждый литерал может быть положительно включен, отрицательно включен или не включен. Подставьте его к границе сложности выборки консенсусного предположения для любогоϵ> 0\epsilon > 0иδ>0 δ > 0дает следующие оценки сложности выборки:

m1ϵ((log3)n+log1δ).(2.10)m\ge\frac{1}{\epsilon}\big((log3)n+log\frac{1}{δ}\big).(2.10)

Следовательно, самое большееnnКласс соединения для логического литерала:PACобучаемый. Обратите внимание, что вычислительная сложность также является полиномиальной, поскольку стоимость обучения одного примера составляетO(n)O(n). заδ = 0.02δ = 0.02,ϵ = 0.1\epsilon = 0.1 и n = 10n = 10, предел становитсяm  149м ≥ 149. Поэтому, по крайней мере,149149маркированные образцы образцов, границы гарантированы99%99\%точность и не менее98%98\%уверенность.

2.4.PNG
Рисунок 2.4Каждая из первых шести строк таблицы представляет обучающий пример, метка которого++ или -указано в последней колонке. Если все положительные примеры имеютiiпредметы00(или 11), последняя строка находится в столбцеi е [1, 6]i ∈ [1, 6]включен в00(или 11). если 00 и 11как первая часть положительного примераiiпоявляются записи, затем он содержит ''??''. Следовательно, для этой обучающей выборки гипотеза, возвращаемая алгоритмом консенсуса, описанным в статье, имеет видx1 x2 x5 x6\overline x_1 ∧x_2 ∧x_5 ∧x_6.

Пример 2.3 Класс общего понятия

подумайте о том, чтобы иметьnnнабор всех булевых векторов компонентовX = {0, 1}nX = \{0, 1\}^n, и разрешиUnU_n От XXКонцептуальный класс, образованный всеми подмножествами . Можно ли изучить этот концептуальный класс с помощью PAC? Чтобы гарантировать непротиворечивость предположений, класс гипотез должен включать класс понятий, поэтомуH  Un = 2(2n)|H| ≥ |U_n|=2^{(2^n)}. Теорема 2.1 дает следующие оценки сложности выборки:

m1ϵ((log2)2n+log1δ).(2.11)m\ge\frac{1}{\epsilon}\big((log2)2^n+log\frac{1}{δ}\big).(2.11)

Здесь искомое количество обучающих выборок равноnnПоказатель , которыйXXСтоимость представления мидпойнт. следовательно,PACОбучение не гарантируется теоремами. На самом деле нетрудно доказать, что этот родовой класс понятий не являетсяPACобучаемый.