мультинейронная нейронная сеть
Точность написанного ранее алгоритма распознавания кошек все еще не очень высока, в основном потому, что это одна нейронная сеть, которая слишком проста и имеет слишком мало слоев.
Нейронная сеть делится на один нейрон и несколько нейронов, а нейронная сеть с несколькими нейронами далее делится на поверхностный слой и глубокий слой.Ниже вводятся некоторые понятия в сети с несколькими нейронами.
Обзор многонейронных нейронных сетей
Процесс многонейронной сети такой же, как и процесс однонейронной сети, но с большим количеством слоев. Ниже показана нейронная сеть из нескольких нейронов с дополнительным слоем посередине, но на самом деле слоев может быть гораздо больше:
- Самая левая функция, отвечающая за ввод, называетсявходной слой
- Крайний правый выход называетсявыходной слой
- И все, что между ними, называлосьскрытый слой
Сеть с несколькими нейронами против сети с одним нейроном
Давайте рассмотрим нейронную сеть с одним нейроном, которую мы изучили ранее:
Процесс работы:
Давайте еще раз сравним мультинейронную сеть, разобьем мультинейронную сеть на отдельные нейроны один за другим:
Конкретный процесс работы выглядит следующим образом:
Сначала мы вычисляем a=\sigma(z) трех нейронов в первом слое (без входного слоя), а затем вводим эти три как x в нейроны второго слоя для расчета. Приведенное выше w^{[i]} представляет собой вес нейронов в первом слое по отношению к входному слою x, поэтому w^{[i]} равно 3Матрица 3, потому что в первом слое есть 3 нейрона, и каждый нейрон имеет 3 входа признаков, всего 33.
То же самое верно для вычислений обратного распространения.Сначала вычислите градиенты dw и db второго слоя, а затем распространитесь на первый слой, чтобы вычислить dw и db трех нейронов в первом слое.
Метод настройки гиперпараметров
рисунокКоличество слоев нейронной сети, количество нейронов в каждом слоеобаГиперпараметры, как и скорость обучения, упомянутая выше, ее нужно регулировать медленно, чтобы найти наиболее подходящее значение.Вероятно, есть несколько способов настройки:
- Поиск по сетке/исчерпывающий поиск нецелесообразен в многомерном пространстве, а сложность слишком высока.
- Случайный поиск Многие гиперпараметры выбираются параллельно, независимо друг от друга. Одни гиперпараметры дадут хорошую производительность, другие — нет.
- Ручная настройка в основном зависит от опыта героев настройки.
- Автоматическая оптимизация параметров (автоматическое машинное обучение). В настоящее время это относительно новое направление, и более зрелые фреймворки включаютAuto-Skleran
На самом деле самое главное - вручную настроить параметры.Разные фоны проекта имеют разные принципы.Начинать рекомендуется с небольшого значения.недооснащениеЗатем медленно добавляйте больше слоев и нейронов, еслипереоснащениеПросто уменьшите количество слоев и нейронов.
\