Последовательность статьи выше [“Краткий обзор категорий машинного обучения (код Python)"](woohoo.brief.com/afraid/corporation с 59 по 46…) упоминает логистическую регрессию и дает краткое введение. В этой статье нейронная структура модели логистической регрессии будет рассмотрена и расширена до моделей глубокой глубокой сети.
1. Говорите о мудрости
Для исследования тайн человеческой мудрости люди из разных эпох и дисциплин имеют разные представления о понимании мудрости и методах ее реализации. Некоторые выступают за использование явных логических систем для построения систем искусственного интеллекта, то есть за символику. Некоторые выступают за использование математических моделей для имитации состава мозга для достижения интеллекта, то есть за коннекционизм, который мы и обсуждаем в этой статье.
Как мозг может думать? Ученые установили, что причина кроется в нейронной сети человеческого организма, которая в основном состоит из нейронов:
1. Внешние раздражители преобразуются в электрические сигналы через нервные окончания нейронов и передаются нейронам.
2. Дендриты нейронов получают электрические сигналы, и нейроны обрабатывают, достигают ли они порога активации, а затем выдают возбуждающие или тормозящие электрические сигналы, и, наконец, аксоны передают сигналы другим клеткам.
3. Многочисленные нейроны составляют нервный центр. Нервный центр объединяет различные сигналы, чтобы выносить суждения.
4. Организм человека отвечает на внешние раздражители по инструкции нервного центра.
2. Нейроны
Поскольку основу интеллекта составляют нейроны, и именно благодаря этим характеристикам нейронов мозг обладает мощной «вычислительной способностью и способностью принимать решения», ученые изобрели математическую модель искусственных нейронов, основанную на этом принципе, и объединили их на основе нейронов в модель искусственной нейронной сети. (Примечание: нейроны, упомянутые ниже, относятся, в частности, к искусственным нейронам)
На приведенном выше рисунке показана базовая структура искусственного нейрона. Он может вводить определенный размерный ввод (например: трехмерный ввод, x1, x2, x3), каждый ввод должен быть умножен на соответствующее значение веса (например: w0, w1, w2), умноженное на каждый вес Роль значения можно рассматривать как взвешивание каждого входа, то есть важность каждого входного нейрона различна.
Затем нейрон суммирует каждый вход, умноженный на вес (то есть взвешенную сумму), и добавляет член пересечения (термин пересечения b можно рассматривать как прямую настройку порога нейрона) и, наконец, активирует функцию ( f) нелинейно преобразуется в конечное выходное значение.
Существует множество типов функций активации, в том числе сигмовидная, тангенциальная, знаковая, релу, softmax и т. д. (в следующей теме будут обсуждаться функции активации). Функция функции активации состоит в реализации нелинейной операции над нейронами в соответствии с универсальной теоремой об универсальном приближении: «Если нейронная сеть с прямой связью имеет линейный выходной слой и хотя бы один скрытый слой, при условии, что сети задана достаточное количество нейронов. Можно аппроксимировать любую непрерывную функцию на компактном подмножестве (компактном подмножестве) ℝn с достаточно высокой точностью». Это показывает, что функция активации является предпосылкой обучения глубокой нейронной сети для соответствия любой функции.
3. Нейрон в логистическую регрессию
Когда один нейрон и его функция активации являются сигмовидными, это хорошо известная модельная структура логистической регрессии.Логистическая регрессия представляет собой обобщенную модель линейной классификации, и ее модельную структуру можно рассматривать какоднослойная нейронная сеть, который состоит из входного слоя, выходного слоя нейронов только с одной сигмовидной функцией активации и без скрытых слоев. (Примечание: количество слоев вычислительной сети не включено во входной слой)
В структуре модели логистической регрессии мы вводим признак данных x, и входной признак нелинейно преобразуется в значение в интервале 0 ~ 1 посредством вычисления сигмоиды (wx + b) через функцию активации нейронов выходного слоя σ (сигмоид функция). Процесс обучения и обучения заключается в изучении модели Y = сигмоид (wx + b) соответствующего параметра w посредством градиентного спуска, чтобы минимизировать ошибку между выходным значением модели Y и фактическим значением y.
4. Логистическая регрессия к глубоким нейронным сетям
Основываясь на предыдущем введении, можно знать, что нейронная сеть представляет собой сеть, состоящую из нейронов, соединенных слоями.Логистическая регрессия представляет собой однослойную нейронную сеть.Когда мы подключаем хотя бы один слой к однослойной нейронной сети только с входной слой и выходной слой Скрытый слой слоя, то есть глубокая нейронная сеть.Глубокая нейронная сеть состоит из трех сетевых слоев: входного слоя, скрытого слоя и выходного слоя.
- Входной слой: это входной слой объектов данных, а количество объектов входных данных соответствует количеству нейронов в сети.
- Скрытый слой: средний слой сети.Количество скрытых слоев может быть 0 или много слоев.Его функция состоит в том, чтобы принять выходные данные предыдущего слоя сети в качестве текущего входного значения, а также вычислить и вывести текущий результат в следующий слой. Скрытый слой является ключом к производительности нейронной сети и обычно состоит из нейронов с функциями активации для дальнейшей обработки абстрактных признаков высокого уровня для улучшения нелинейного выражения сети. Количество скрытых сетевых слоев напрямую влияет на эффект подгонки модели.
- Выходной слой: сетевой уровень, который выводит окончательный результат. Количество нейронов в выходном слое представляет собой количество меток классификации (Примечание: при выполнении двух классификаций, если функция активации выходного слоя использует сигмоид, количество нейронов в выходном слое равно 1; если используется классификатор softmax , выход Количество нейронов слоя равно 2)
Функция данных (x) вводится из входного слоя, результат вычисления каждого слоя передается от предыдущего слоя к следующему слою, и, наконец, выходной слой выводит результат вычисления. Каждый слой сети состоит из определенного количества нейронов.Нейроны можно рассматривать как вычислительные единицы один за другим, а входные данные взвешиваются и суммируются, поэтому результат вычислений напрямую контролируется весами, содержащимися в нейронах (т. е. параметр модели w).Элемент также может содержать функцию активации, которая в дальнейшем может выполнять нелинейные вычисления по результату взвешенного суммирования, например sigmoid(wx + b).