Автор: Лилиан Венг
Перевод: Лао Ци
Рекомендуемые книги, связанные с этой статьей: "Подготовка данных и проектирование признаков"
Недавно я слушал доклад профессора Нафтали Тишби «Теория информации в глубоком обучении» и нашел его очень интересным. В своем выступлении он объяснил, как можно использовать теорию информации для изучения роста и преобразования глубоких нейронных сетей, и он использовал метод IB (информационное узкое место) для создания новой области для глубоких нейронных сетей (DNN) из-за экспоненциального увеличение количества параметров, что делает традиционные теории обучения неработоспособными в этой области. Другое проницательное наблюдение показывает, что в обучении DNN участвуют две отдельные фазы: сначала сеть обучается адекватно представлять входные данные, сводя к минимуму ошибку обобщения, а затем, сжимая представление входных данных, она учится забывать нерелевантные детали.
Базовые концепты
Цепь Маркова
Марковский процесс — это случайный процесс без памяти (также известный как «марковское свойство»), а марковская цепь — это класс марковских процессов, которые содержат несколько дискретных состояний, то есть будущее процесса. Условная вероятность состояния определяется только текущим состоянием, а не прошлыми состояниями.
KL-расхождение
Дивергенция KL используется для измерения распределения вероятностейp
Отклонение от другого ожидаемого распределения вероятностейq
в той мере, в какой он асимметричен.
когда ==
час,
достигает минимального значения нуля.
взаимная информация
Взаимная информация измеряет степень взаимозависимости между двумя переменными. Она количественно определяет «количество информации», полученное одной случайной величиной через другую случайную переменную. Взаимная информация симметрична.
Неравенство обработки данных (DPI)
Для любой цепи Маркова:,У нас есть
.
Глубокую нейронную сеть можно рассматривать как цепь Маркова, поэтому по мере продвижения вниз по слоям DNN взаимная информация между слоями и входом только уменьшается.
Репараметризационная инвариантность
для двух обратимых функций,
, взаимная информация по-прежнему:
.
Например, если мы настроим веса в одном слое DNN, это не повлияет на взаимную информацию между этим слоем и другим слоем.
Глубокие нейронные сети для цепей Маркова
тренировочные данные изи
Совместно распределенные выборочные наблюдения, входные переменные
а веса скрытого слоя являются многомерными случайными величинами. реальная стоимость
и прогнозируемое значение
является случайной величиной меньшей размерности в категориальной настройке.
Рисунок 1: Структура глубокой нейронной сети, которая содержит метки, входной слой
, скрытый слой
и прогнозируемое значение
.
Если мы пометим скрытый слой DNN как, как показано на рисунке 1, каждый слой можно рассматривать как состояние цепи Маркова:
. Согласно DPI, мы имеем:
DNN предназначены для того, чтобы научиться описывать, чтобы предсказать
; в конце концов,
сжимать, чтобы содержать только
релевантная информация. Тишби описывает этот процесс как «последовательное уточнение соответствующей информации».
Теорема информационной плоскости
DNN, в свою очередь, реализуетВнутреннее представление , набор скрытых слоев
. Согласно теореме об информационной плоскости, каждый слой описывается информацией о кодировщике и декодере, кодировщик — это входные данные.
кодирование, в то время как декодер преобразует информацию в текущем слое в целевой вывод
.
Именно, в информационной плоскости:
- Ось X: образцы
Сложность определяется взаимной информацией энкодера
Решение, сложность образца относится к тому, сколько образцов вам нужно для достижения определенного уровня точности и обобщения.
- Ось Y: точность (ошибка обобщения) по взаимной информации декодера
Принять решение.
Рисунок 2: Информация о взаимодействии кодировщика и декодера для 50 скрытых слоев DNN. Разные слои имеют кодировщики разного цвета: зеленый — слой рядом с входом, оранжевый — самый дальний от входа слой. Есть три моментальных снимка: начальная стадия, стадия 400 и стадия 9000.
Каждая точка на рисунке 2 представляет взаимную информацию кодера или декодера скрытого слоя (без регуляризации, без уменьшения веса, без выпадения и т. д.). Они перемещаются вверх, как и ожидалось, по мере того, как увеличивается знание меток достоверности (точность возрастает). На ранних этапах скрытый слой многое узнает о входных данных.информации, но затем они начинают сжиматься, чтобы забыть часть введенной информации. По словам Тишби, «самая важная часть обучения — это забывание».
Рисунок 3. Это общий вид рисунка 2. Сжатие было выполнено после того, как ошибка обобщения стала очень малой.
Два этапа оптимизации
Своевременное отслеживание среднего значения и стандартного отклонения весов на каждом уровне также показывает два этапа оптимизации процесса обучения.
Рисунок 4: Норма среднего и стандартного отклонения градиентов веса на каждом слое как функция обучения. В разных слоях используются разные цвета.
На ранних стадиях среднее значение на три порядка превышает стандартное отклонение. После достаточного периода времени ошибка имеет тенденцию к насыщению, а затем стандартное отклонение становится больше. Чем дальше слои от выхода, тем больше шума из-за того, что шум может усиливаться и накапливаться в процессе обратного распространения (а не из-за ширины слоев).
теория обучения
«Старое» обобщение
Диапазон обобщения, определенный классической теорией обучения, составляет:
-
: разница между ошибкой обучения и ошибкой обобщения. Ошибка обобщения — это мера того, насколько точно алгоритм предсказывает данные, которые ранее не публиковались.
-
: Допустим, обычно мы предполагаем, что размер
.
-
: надежность.
-
: Количество обучающих выборок.
-
: Гипотетическая размерность VC.
Это определение гласит, что разница между ошибкой обучения и ошибкой обобщения ограничена размером пространства гипотез и размером набора данных. Чем больше пространство гипотез, тем больше ошибка обобщения.
Однако он не подходит для глубокого обучения. Чем больше сеть, тем больше параметров необходимо изучить. При таком ограничении обобщения более крупные сети (более крупные) будут иметь худшие оценки. Наша интуиция подсказывает, что более крупные сети обеспечивают лучшую производительность и большую выразительность. Здесь это противоречит интуиции.
"новое" сжатие ввода
Чтобы справиться с этим нелогичным наблюдением, Тишби и др. предлагают новый диапазон входного сжатия для DNN.
Сначала положимкак входная переменная
из
раздел. Этот раздел сжимает входные данные об однородности меток в небольшие ячейки, каждая из которых может покрывать все входное пространство. Если прогноз выводит двоичные значения, вы можете использовать
Замените предполагаемую кардинальность
.
когдаКогда больше,
примерно
. Размер каждой ячейки, в которой находится ϵ, равен
. Таким образом, у нас есть
. Тогда диапазон входного сжатия становится следующим:
Рисунок 5: Черная линия – это оптимально достижимый предел IB. Красная линия соответствует верхней границе искажения IB за пределами выборки при обучении на ограниченном наборе выборок. ΔC — разрыв сложности, а ΔG — пробел обобщения.
Размер сети и обучающие данные
Преимущества большего количества скрытых слоев
Наличие большего количества слоев дает нам вычислительные преимущества и ускоряет процесс обучения для лучшего обобщения.
Рисунок 6: Чем больше скрытых слоев, тем меньше время оптимизации (меньше этапов).
Сжатие с помощью алгоритма стохастической релаксации: согласно уравнению диффузии, время релаксации слоя k связано с величиной сжатия слоя.:
пропорциональна показателю. мы можем следовать
Сжатие вычислительного слоя. так как
, поэтому мы рассчитываем использовать больше скрытых слоев (большие
), чтобы сократить период обучения в геометрической прогрессии.
Преимущество большего количества обучающих выборок
Для подбора большего количества обучающих данных требуется захват большего количества информации через скрытый слой.По мере увеличения объема обучающих данных взаимная информация декодера(Помните, это напрямую связано с ошибкой обобщения) поднимается выше, ближе к границам теоретического ИБ. Тишби подчеркивает, что, в отличие от стандартной теории, именно взаимная информация, а не размер слоя или измерение VC, определяет обобщение.
Рис. 7. Обучающие данные разного размера выделены цветом. Здесь показана информационная плоскость множественных сетей агрегации. Чем больше обучающих данных, тем лучше эффект обобщения.
Оригинальная ссылка:Лилиан Онг.GitHub.io/theory-log/201…
Найдите общедоступный номер технических вопросов и ответов: класс Лао Ци
Ответ в публичном аккаунте:Лао Ципросмотреть все статьи, книги, курсы.
Если вы считаете, что это выглядит хорошо, ставьте лайк и вперед/сильно>