предисловие
Нейронная сеть обладает сильной способностью к обучению и самоадаптирующейся способностью к самоорганизации, и способность к обучению будет становиться сильнее по мере увеличения количества скрытых слоев.Поэтому нейронные сети в настоящее время используются во многих сценариях, таких как глубокое обучение, которое мы более знаком с «Это альфа-собака».
О нейронных сетях
Уже существует множество вариантов нейронных сетей, таких как сверточные нейронные сети, рекуррентные нейронные сети и так далее.
Персептрон является самой простой нейронной сетью.У него есть только входной слой и выходной слой.Персептрон может иметь дело только с линейно разделимыми задачами, тогда как для нелинейных задач требуется многослойная нейронная сеть. Как правило, как показано на рисунке ниже, существует несколько слоев.Например, левый содержит входной слой, скрытый слой и выходной слой, а правый содержит два скрытых слоя. Нейроны в каждом слое полностью взаимосвязаны со следующим нейроном, а нейроны в том же слое не связаны.Входной слой используется для получения ввода, а после обработки в скрытом слое он обрабатывается и выводится в выходной слой .
Как обучить многослойную сеть
Для многослойных сетей мы часто используем алгоритм обратного распространения ошибки для обучения, а наша наиболее распространенная нейронная сеть BP относится к многослойной нейронной сети с прямой связью, обученной с использованием обратного распространения ошибки. В дополнение к этому, другие типы нейронных сетей также могут быть обучены с использованием алгоритма обратного распространения ошибки.
В общем, обратное распространение ошибки использует метод градиентного спуска для непрерывной корректировки весов в нейронной сети посредством обратного распространения, чтобы минимизировать сумму квадратов ошибок выходного слоя.
Визуальный эксперимент
TensorFlow предоставляет экспериментальную демонстрационную платформу, которая позволяет нам лучше понять нейронные сети посредством визуализации на https://playground.tensorflow.org.
Следующие две более простые модели классификации можно увидеть на рисунке, который может различать две категории после обучения. Мы выбираем x1 и x2 для входных признаков, есть два скрытых слоя с 4 нейронами и 2 нейронами соответственно.
Если наш набор данных более сложный, требуется больше скрытых слоев, таких как следующие:
В этом процессе вы также можете видеть выходные и входные данные каждого нейрона в каждом слое, а также можете самостоятельно контролировать пошаговое обучение.Благодаря этой экспериментальной платформе вы можете помочь новичкам понять принципы и процессы нейронных сетей. , и вы можете играть.
------------- Рекомендуем прочитать ------------
Резюме моей статьи за 2017 год — машинное обучение
Резюме моих статей за 2017 год — Java и промежуточное ПО
Резюме моих статей 2017 года — глубокое обучение
Краткое изложение моих статей за 2017 год — исходный код JDK
Резюме моей статьи за 2017 год — обработка естественного языка
Резюме моих статей 2017 года — Java Concurrency
Поговори со мной, задай мне вопросы:
Меню официальной учетной записи было разделено на «Сводка для чтения», «Распределенное», «Машинное обучение», «Глубокое обучение», «НЛП», «Глубина Java», «Ядро параллелизма Java», «Исходный код JDK», "Tomcat Core" "Подождите, может быть, есть тот, который соответствует вашему аппетиту.
Зачем писать «Анализ проектирования ядра Tomcat»
Добро пожаловать, чтобы следовать: