Примите участие в 11-м дне ноябрьского испытания обновлений и узнайте подробности события:Вызов последнего обновления 2021 г.
Зачем нужна функция активации?
Давайте проанализируем это с помощью следующей нейронной сети:
Для изображения выше: мы знаем, какой
Расчет между слоями:
Объедините приведенные выше две формулы расчета:
Взгляните еще раз на его матричные операции:
Затем берём вычисленную матрицу в формулу комбинированного расчёта, и она снова становится. В данном случае эта многослойная нейросеть вообще не имеет смысла, раз ее можно объединить, не лучше ли написать ее сразу как один слой? вкусные! Но у многослойной модели есть некоторые вещи, которые не может сделать один слой, так как же сохранить многослойную модель, чтобы ее нельзя было просто объединить? Затем используется функция активации.
Функция ReLU (выпрямленная линейная единица)
формула:
Функция ReLU сохраняет только положительные элементы и отбрасывает все отрицательные элементы, устанавливая соответствующее значение активации на 0.
Функция, обрабатываемая ReLU, выглядит так:
Сигмовидная функция
Тогда это была первая функция активации, которую я изучил и с которой соприкоснулся. Я слушал в то время класс Ву Энда. Он подробно рассказывал о преимуществах использования сигмоиды. Я также делал заметки, которые можно увидеть здесь:Логистическая регрессия | Логистическая регрессия — самородки (juejin.cn)
формула:
Для домена вввод в ,сигмовидная функцияПреобразуйте вход в выход на интервале (0, 1). Поэтому сигмовидную часто называют функцией сжатия: она сжимает любые входные данные в диапазоне (-inf, inf) до некоторого значения в интервале (0, 1).
тан функция
формула:
Подобно сигмовидной функции, функция тангенса (гиперболический тангенс) также может сжимать свои входные данные в интервал (-1, 1).