сложный мир
Мы живем в чрезвычайно сложном мире, будь он размером с молекулу или атом или размером со всю вселенную, его сложность превосходит воображение. Возможно, вы не задумывались о сложности окружающих вас вещей, потому что привыкли к тому, что видите каждый день. Все вещи, изобретенные до вашего рождения, являются естественной частью мира, поэтому многие вещи кажутся такими, какие они есть.
Как появилось такое сложное существо, как человек? Как появилась такая сложная вещь, как компьютер? Как появилось нечто столь сложное, как река и гора? Связаны ли некоторые вещи с некоторыми другими вещами? Многие сложные вещи вокруг могут не иметь каких-либо очевидных закономерностей, а многие вещи не связаны детерминированными отношениями.
что такое информация
Слово «информация» кажется нам знакомым, но в то же время незнакомым. Знакомство связано с тем, что мы живем в век информации, и существует большое количество различной информации, тесно связанной с жизнью, такой как книги, мобильные телефоны, компьютеры и т. д. Незнакомым является то, что трудно точно объяснить, что это за информация и как ее измерить. Например, сколько информации содержит предложение «земля круглая»? Отличается ли количество информации, содержащейся в древних и современных предложениях?
Все содержит информацию, и информацию можно обрабатывать и использовать (в широком смысле это называется вычислениями).С точки зрения информации и обработки информации в широком смысле изменения, которые мы видим, на самом деле являются расчетами Вселенной. Пожалуй, можно сказать, что суть мира — информация + расчет. Многие ученые считают, что наиболее многообещающим способом объединения общей теории относительности и квантовой механики является теория информации.
Информация об измерениях
Количественная оценка информации является основой информационной революции. До публикации Шенноном "Математической теории коммуникации" информация была очень абстрактной вещью, которую нельзя было конкретно определить. Например, человек сказал, что у компании много информации, и у него 100 миллионов электронных писем. Сколько информации содержится в этих 100 миллионах электронных писем? В областях физики и химии уже существуют различные измерения, которые можно использовать для измерения свойств различных объектов.Для того, чтобы сделать информацию измеримой, Шеннон сам предложил концепцию бита (bit).Используя биты для измерения информации, биты также стали величинами Члены банды.
Информационная энтропия
Энтропия — это понятие в физике.В термодинамических системах энтропия и энергия могут использоваться для характеристики изменений в системе. Энтропию можно понимать на молекулярном уровне, физическая система состоит из атомов и молекул, а мгновенное состояние (положение, скорость) всех частиц описывает общее состояние. Частицы постоянно переходят из одного микросостояния в другое, а энтропия соответствует количеству микросостояний, чем больше микросостояний, тем выше энтропия. То есть энтропия используется для выражения степени неопределенности.
Опираясь на понятие энтропии в физике, Шеннон ввел его в область коммуникации Шеннон считал, что система должна иметь несколько состояний для переноса информации, и чем больше состояний, тем больше информации она может содержать. Кроме того, необходимо ввести вероятностные вопросы, поскольку сумма вероятностей всех возможных состояний должна быть равна 1 при заданном условии. Чем больше возможных состояний, тем ниже вероятность того, что какое-либо одно состояние произойдет в среднем.
Информация тесно связана с количеством возможных состояний, вероятностью, длиной текста и смыслом самого текста, но с точки зрения коммуникации не обязательно заботиться о значении самого текста. Чтобы измерить текстовую информацию, нам сначала нужно определить, сколько существует возможных состояний и их соответствующих вероятностей, умножить вероятность каждого состояния на логарифм вероятности, а затем суммировать все условия. Полученный результат представляет собой размер информационной энтропии в битах.
Точки внимания информационной энтропии
Информационная энтропия может использоваться для описания способности системы переносить информацию, а также для представления количества информации, переносимой вещью. При использовании информационной энтропии для описания количества информации о вещах не учитывается избыточность, например, два повторяющихся предложения не приносят вдвое больше информации. Также есть два предложения в разном порядке, хотя информативность одинаковая, но смысл неодинаков с лингвистического уровня.
Способ примирить информацию в повседневном значении с информационной энтропией состоит в том, чтобы рассматривать информационную энтропию как максимальное количество информации, которое может содержать текст.
------------- Рекомендуем прочитать ------------
Зачем писать «Анализ проектирования ядра Tomcat»
2018 Алгоритмы структуры сводных данных
Сборник статей по машинному обучению за 2018 г.
Сводка статей о глубине Java за 2018 г.
Резюме по обработке естественного языка за 2018 г.
Резюме глубокого обучения за 2018 г.
Сводка статей об исходном коде JDK за 2018 г.
Обзор Java Concurrency Core за 2018 г.
Добро пожаловать, чтобы обратить внимание: искусственный интеллект, чтение и мысли, болтовня о математике, распределенное, машинное обучение, глубокое обучение, обработка естественного языка, алгоритмы и структуры данных, глубина Java, ядро Tomcat и другие статьи по теме