Синхронизировать csdn-адрес:
В машинном обучении и глубоком обучении часто требуется классификация, которая включает границы решений, такие как функции активации sigmod; Но когда мы сталкиваемся с мультиклассификацией (такой как классический MNIST), нам нужно предсказать вероятность каждого типа вывода, такого как softmax, в это время нам нужно:Теория информации и перекрестная энтропиячеткое понимание тогда наша статья будетТеория информации и кросс-энтропийные функции потерьпрочитать лекцию;
1. Теория информации
1.1 Теория информации заимствована из физики, и мы говорим только о ее математическом смысле:
Фактически теория информации представляет собойСходство между распределениями вероятностей или распределениями вероятностей Чангаидея Основная идея теории информации состоит в том, чтобы выразитьстепень неожиданности, то есть маловероятное событие происходит при большом количестве информации
- 1. Количество информации о неизбежном событии равно 0
- 2. Чем меньше вероятность события, тем больший объем информации оно предоставляет
- 3. Информация инкрементальна, т. е. количество информации, которая возникает один раз для одного и того же события, равно, то количество переданной дважды информации равнотогда для достижения нашей целиКоличественная оценка количества информации о вероятностных событиях
2. Информация о себе
- количественное значение количества информации единичного события
Строим такую формулу:
- здесьпросто случайные событиявероятность наступления события
- логарифмически возрастающая функция, тоФункция является убывающей функцией, поэтому построенная таким образом функция достигает определенной нашей цели.По мере уменьшения вероятности количество информации увеличивается. Но самоинформация может только предсказать количество информации о событии.
- Юнит Рыцарь, то есть 1представленаВероятность самоинформации о событии
3. Энтропия Шеннона
Часто в наших практических приложениях нам нужно использоватьЭнтропия Шеннонадля количественной оценки общего количества неопределенности во всем распределении вероятностей событий
Здесь мы можем учиться уФормула для оценки математического ожидания случайной величины X
Энтропию Шеннона здесь можно рассматривать как:количество информацииФормула для оценки математического ожидания
- Здесь k — категория, а n — общая категория.
Ниже мы приводим пример:
-
Массив 1: 111111
-
Массив 2: 111222
-
Массив 3: 112233
Рассчитаем энтропию Шеннона для массивов 1 , 2 и 3
Таким образом, если энтропия Шеннона массива 1 равна 0, это неизбежное событие, массив 2 находится посередине, а массив 3 самый большой, поэтому вероятность его вероятностного распределения наименьшая.
4. Кросс-энтропия
Ранее мы упоминалиинформация о себеиЭнтропия ШеннонаИтак, как использовать это в машинном обучении и глубоком обучении, не волнуйтесь и медленно смотрите вниз Мы помним, что в модели мультиклассовой классификации мы использовалиОцените вероятность каждой категории, а затем примите максимальную вероятность в качестве прогнозируемого значения.И когда мы реверсируем обновлениеКогда это модель функции активации или нейронной сети, перекрестная энтропия используется какфункция регулировки градиента
Итак, давайте сосредоточимсяперекрестная энтропияПеред этим надо посмотретьХэш, основанный на энтропии Шеннона, используемый для измерения двух отдельных распределений для одной и той же случайной величины X.иСпособ отличия:
Но в глубоком обучении мы используемВ качествефункцию, а именно:
в соответствии сХэшируем нашу команду, чтобы деформировать приведенную выше формулу:
После деформации получаем:
Далее меняем на понятноефункция
Здесь мы видим знакомую нам функцию стоимости,Функция стоимости для регрессионных классификаторов
Далее мы обсудим, почему используется эта функция стоимости.
В основном мультиклассификаторы, такие как softmax, при оценке реального значения () и прогнозируемое значение () расстояние, это больше касается оценки расстояния между вероятностями, поэтому, используя традиционную среднеквадратичную ошибку какфункции бессмысленны
Давайте возьмем пример (возьмем в качестве примера MNIST: идентифицируйте изображения чисел от 0 до 9): Предположим, что выходной слойфункция активации:
Затем мы предполагаем два набора экземпляров с одной и той же меткойианализировать Сначала нашвсе равны 0, поэтому комбинация векторов реального значения равна (1,0,0,0,0,0,0,0,0,0)
- Комбинация векторов предсказанных значений A (0,9,0,2,0,1,0,0,0,0,0,0,0)
- Комбинация векторов предикторов B (0,8,0,0,1,0,0,5,0,0,0,0,0)
Затем вычислите перекрестную энтропию A и B (то естьфункция) :
- P означает истинное значение
- Q означает прогнозируемое значение так как, поэтому очевидно, что первая группа обусловлена второй группой
Еще одна вещь: перекрестная энтропияне симметричен, поэтомуПоэтому обратите внимание на порядок P и Q. В первой версии P представляет фактическое значение, а Q представляет прогнозируемое значение.
В последнее время было очень жарко, все остерегаются теплового удара, но перестать учиться нельзя ^^