Расскажите об информационной энтропии Шеннона.

внешний интерфейс задняя часть
Расскажите об информационной энтропии Шеннона.

сложный мир

Мы живем в чрезвычайно сложном мире, будь он размером с молекулу или атом или размером со всю вселенную, его сложность превосходит воображение. Возможно, вы не задумывались о сложности окружающих вас вещей, потому что привыкли к тому, что видите каждый день. Все вещи, изобретенные до вашего рождения, являются естественной частью мира, поэтому многие вещи кажутся такими, какие они есть.

复杂世界

Как появилось такое сложное существо, как человек? Как появилась такая сложная вещь, как компьютер? Как появилось нечто столь сложное, как река и гора? Связаны ли некоторые вещи с некоторыми другими вещами? Многие сложные вещи вокруг могут не иметь каких-либо очевидных закономерностей, а многие вещи не связаны детерминированными отношениями.

что такое информация

Слово «информация» кажется нам знакомым, но в то же время незнакомым. Знакомство связано с тем, что мы живем в век информации, и существует большое количество различной информации, тесно связанной с жизнью, такой как книги, мобильные телефоны, компьютеры и т. д. Незнакомым является то, что трудно точно объяснить, что это за информация и как ее измерить. Например, сколько информации содержит предложение «земля круглая»? Отличается ли количество информации, содержащейся в древних и современных предложениях?

image

Все содержит информацию, и информацию можно обрабатывать и использовать (в широком смысле это называется вычислениями).С точки зрения информации и обработки информации в широком смысле изменения, которые мы видим, на самом деле являются расчетами Вселенной. Пожалуй, можно сказать, что суть мира — информация + расчет. Многие ученые считают, что наиболее многообещающим способом объединения общей теории относительности и квантовой механики является теория информации.

image

Информация об измерениях

Количественная оценка информации является основой информационной революции. До публикации Шенноном "Математической теории коммуникации" информация была очень абстрактной вещью, которую нельзя было конкретно определить. Например, человек сказал, что у компании много информации, и у него 100 миллионов электронных писем. Сколько информации содержится в этих 100 миллионах электронных писем? В областях физики и химии уже существуют различные измерения, которые можно использовать для измерения свойств различных объектов.Для того, чтобы сделать информацию измеримой, Шеннон сам предложил концепцию бита (bit).Используя биты для измерения информации, биты также стали величинами Члены банды.

image

Информационная энтропия

Энтропия — это понятие в физике.В термодинамических системах энтропия и энергия могут использоваться для характеристики изменений в системе. Энтропию можно понимать на молекулярном уровне, физическая система состоит из атомов и молекул, а мгновенное состояние (положение, скорость) всех частиц описывает общее состояние. Частицы постоянно переходят из одного микросостояния в другое, а энтропия соответствует количеству микросостояний, чем больше микросостояний, тем выше энтропия. То есть энтропия используется для выражения степени неопределенности.

image

image

Опираясь на понятие энтропии в физике, Шеннон ввел его в область коммуникации Шеннон считал, что система должна иметь несколько состояний для переноса информации, и чем больше состояний, тем больше информации она может содержать. Кроме того, необходимо ввести вероятностные вопросы, поскольку сумма вероятностей всех возможных состояний должна быть равна 1 при заданном условии. Чем больше возможных состояний, тем ниже вероятность того, что какое-либо одно состояние произойдет в среднем.

image

Информация тесно связана с количеством возможных состояний, вероятностью, длиной текста и смыслом самого текста, но с точки зрения коммуникации не обязательно заботиться о значении самого текста. Чтобы измерить текстовую информацию, нам сначала нужно определить, сколько существует возможных состояний и их соответствующих вероятностей, умножить вероятность каждого состояния на логарифм вероятности, а затем суммировать все условия. Полученный результат представляет собой размер информационной энтропии в битах.

image

Точки внимания информационной энтропии

Информационная энтропия может использоваться для описания способности системы переносить информацию, а также для представления количества информации, переносимой вещью. При использовании информационной энтропии для описания количества информации о вещах не учитывается избыточность, например, два повторяющихся предложения не приносят вдвое больше информации. Также есть два предложения в разном порядке, хотя информативность одинаковая, но смысл неодинаков с лингвистического уровня.

Способ примирить информацию в повседневном значении с информационной энтропией состоит в том, чтобы рассматривать информационную энтропию как максимальное количество информации, которое может содержать текст.

------------- Рекомендуем прочитать ------------

Краткое изложение моих проектов с открытым исходным кодом (машинное и глубокое обучение, НЛП, сетевой ввод-вывод, AIML, протокол mysql, чат-бот)

Зачем писать «Анализ проектирования ядра Tomcat»

2018 Алгоритмы структуры сводных данных

Сборник статей по машинному обучению за 2018 г.

Сводка статей о глубине Java за 2018 г.

Резюме по обработке естественного языка за 2018 г.

Резюме глубокого обучения за 2018 г.

Сводка статей об исходном коде JDK за 2018 г.

Обзор Java Concurrency Core за 2018 г.

Итоговые чтения за 2018 год


Добро пожаловать, чтобы обратить внимание: искусственный интеллект, чтение и мысли, болтовня о математике, распределенное, машинное обучение, глубокое обучение, обработка естественного языка, алгоритмы и структуры данных, глубина Java, ядро ​​​​Tomcat и другие статьи по теме