развитие
1986 Алгоритм обратного распространения ошибки BP
1998 Использование алгоритма BP для обучения сети LeNet5.
2006 Представлена концепция глубокого обучения.
2012 Глубокое обучение выиграло чемпионат в соревновании поля зрения
полносвязный слой
-
нейроны
-
Обратное распространение БП
-
одноразовое кодирование
сверточный слой
-
Цель: Извлечение признаков
-
Особенности: имеет локальный механизм восприятия, распределение веса
-
Канал ядра свертки такой же, как и канал входного векторного слоя.
-
Канал выходной матрицы признаков совпадает с количеством сверточных слоев.
-
функция активации:
-
sigmoid
-
Relu
-
-
Размеры матрицы после свертки:
объединяющий слой
-
Цель: разрезать карту объектов, чтобы уменьшить объем вычислений данных.
-
нет параметров тренировки
-
Измените только w и h матрицы признаков и не изменит канал
-
Как правило, размер пула такой же, как шаг
Расчет ошибки
истинное значение метки,прогнозируемое значение
- softmax
-
Перекрестная потеря энтропии Перекрестная потеря энтропии
- вывод softmax, сумма всех выходных вероятностей равна 1
- сигмовидный вывод, каждый узел не зависит друг от друга
Обратное распространение ошибок
- Используйте цепное правило вывода, чтобы найти градиент потери ошибки
обновление веса
-
Оптимизатор SGD
- Восприимчив к шуму сэмпла
- Может застрять в локальном оптимуме
-
Оптимизатор SGD+Momentum, вводящий коэффициент импульса для уменьшения влияния шума выборки
-
Оптимизатор Adagrad, адаптивная скорость обучения
-
Оптимизатор RMsprop, адаптивная скорость обучения
-
Оптимизатор Адама, адаптивная скорость обучения
перевод обучения
- Может быстро тренироваться до идеального результата
- Он также может тренировать идеальные результаты, когда набор данных небольшой.
- При использовании параметров предварительно обученной модели других людей обратите внимание на методы предварительной обработки других людей.