Учебное пособие по искусственному интеллекту, заметки-08: нейронная сеть с несколькими нейронами

искусственный интеллект

мультинейронная нейронная сеть

Точность написанного ранее алгоритма распознавания кошек все еще не очень высока, в основном потому, что это одна нейронная сеть, которая слишком проста и имеет слишком мало слоев.

Нейронная сеть делится на один нейрон и несколько нейронов, а нейронная сеть с несколькими нейронами далее делится на поверхностный слой и глубокий слой.Ниже вводятся некоторые понятия в сети с несколькими нейронами.

Обзор многонейронных нейронных сетей

Процесс многонейронной сети такой же, как и процесс однонейронной сети, но с большим количеством слоев. Ниже показана нейронная сеть из нескольких нейронов с дополнительным слоем посередине, но на самом деле слоев может быть гораздо больше:

image-20210716111314267

  • Самая левая функция, отвечающая за ввод, называетсявходной слой
  • Крайний правый выход называетсявыходной слой
  • И все, что между ними, называлосьскрытый слой

Сеть с несколькими нейронами против сети с одним нейроном

Давайте рассмотрим нейронную сеть с одним нейроном, которую мы изучили ранее:

image-20210716111933995

Процесс работы:

image-20210716112556336

Давайте еще раз сравним мультинейронную сеть, разобьем мультинейронную сеть на отдельные нейроны один за другим:

image-20210716111647540

image-20210716111659199

Конкретный процесс работы выглядит следующим образом:

image-20210716112507229

Сначала мы вычисляем a=\sigma(z) трех нейронов в первом слое (без входного слоя), а затем вводим эти три как x в нейроны второго слоя для расчета. Приведенное выше w^{[i]} представляет собой вес нейронов в первом слое по отношению к входному слою x, поэтому w^{[i]} равно 3Матрица 3, потому что в первом слое есть 3 нейрона, и каждый нейрон имеет 3 входа признаков, всего 33.

То же самое верно для вычислений обратного распространения.Сначала вычислите градиенты dw и db второго слоя, а затем распространитесь на первый слой, чтобы вычислить dw и db трех нейронов в первом слое.

Метод настройки гиперпараметров

рисунокКоличество слоев нейронной сети, количество нейронов в каждом слоеобаГиперпараметры, как и скорость обучения, упомянутая выше, ее нужно регулировать медленно, чтобы найти наиболее подходящее значение.Вероятно, есть несколько способов настройки:

  • Поиск по сетке/исчерпывающий поиск нецелесообразен в многомерном пространстве, а сложность слишком высока.
  • Случайный поиск Многие гиперпараметры выбираются параллельно, независимо друг от друга. Одни гиперпараметры дадут хорошую производительность, другие — нет.
  • Ручная настройка в основном зависит от опыта героев настройки.
  • Автоматическая оптимизация параметров (автоматическое машинное обучение). В настоящее время это относительно новое направление, и более зрелые фреймворки включаютAuto-Skleran

На самом деле самое главное - вручную настроить параметры.Разные фоны проекта имеют разные принципы.Начинать рекомендуется с небольшого значения.недооснащениеЗатем медленно добавляйте больше слоев и нейронов, еслипереоснащениеПросто уменьшите количество слоев и нейронов.

\