энтропия
Единицей энтропии являются двоичные биты (биты), также известные как самоинформация, которую можно рассматривать как величину, описывающую неопределенность случайной величины. представляет собой источник информациипредоставляется каждым символомсредняя информация. Чем больше энтропия, тем больше неопределенность, тем меньше вероятность правильной оценки ее значения и тем она менее информативна.
Пример:Вероятность появления 6 символов:, то энтропия каждого символа равна:
Кодировка может быть предназначена для передачи символасреднийтребуется 2,5 бита
концепция максимальной энтропииУчитывая частичное знание неизвестного распределения, распределение вероятностей, которое максимизирует энтропию, наиболее точно отражает распределение событий.
Совместная энтропия и условная энтропия
При расчетеКогда этот элемент равен 0. Совместная энтропия на самом деле представляет собой количество информации, необходимой для описания среднего значения пары случайных величин.
Приведенная выше формула в основном предназначена для вывода следующих цепных правил. Требуется некоторое усилие, чтобы понять первый шаг. Кроме того, я знаком с формулой для расчета совместной энтропии различными способами. Я понимаю формулу, и ее легко найти энтропия при условной вероятности при ее подстановке.Более исчерпан.
Правило цепи
взаимная информация
Он отражает знаниезначение послеснижение неопределенности. можно понимать какЗначение показывает, насколько ообъем информации.
относительная энтропия
Также известен какРасстояние — это мера относительного расстояния между двумя распределениями вероятностей в одном и том же пространстве событий.иОтносительная энтропия определяется как
согласен в определении. Выражено как ожидаемое значение
Когда два случайных распределения абсолютно одинаковы, т.е., а его относительная энтропия равна 0. По мере увеличения разницы между двумя случайными распределениями их относительные ожидания энтропии также увеличиваются.
Взаимная информация на самом деле является мерой того, насколько совместное распределение далеко от независимости:
перекрестная энтропия
Энтропия — это мера неопределенности, и чем больше вы о чем-то знаете, тем меньше у вас энтропии. Концепция перекрестной энтропии используется для измерения разницы между оценочной моделью и истинным распределением вероятностей.
Если случайная величина,для приближенияраспределение вероятностей, то случайная величинаи модельПерекрестная энтропия между определяется как:
Чем меньше кросс-энтропия модели, тем лучше ее производительность.
Этот документ в основном связан с трудностями реализации взаимной информации, перекрестной энтропии и т. д. в коде и требует глубокого понимания формулы определения. Кроме того, формула редактирования уценки очень красивая, и вы должны быть знакомы с написанием формулы. md исходный файл см.GitHub.com/Чжанхай внутри…
Библиография: Статистическая обработка естественного языка, Chengqing Zong