Как энтропия измеряет, является ли система упорядоченной или неупорядоченной?

машинное обучение искусственный интеллект
Как энтропия измеряет, является ли система упорядоченной или неупорядоченной?

Мало знаний, большой вызов! Эта статья участвует в "Необходимые знания для программистов«Творческая деятельность.

Концепция обсуждения сегодня - энтропия. Энтропия — сложное понятие, поэтому в этом видео оно поможет вам понять, что такое энтропия. Мы не будем изучать далеко идущее влияние энтропии в будущем, такое как горячая смерть или подобные вещи, а сосредоточимся на некоторых базовых знаниях, например, что такое энтропия, а затем дадим интуитивное объяснение, помогающее всем. понять, что энтропия есть энтропия.

Возможно, вы слышали, что энтропия используется для измерения степени беспорядка, и ее также можно использовать для измерения степени хаоса в системе, но что это вообще означает?

Мы поймем, как вычислить энтропию, поняв, что на самом деле означает это уравнение, не волнуйтесь, когда увидите эту формулу, вам нужна только математика на уровне средней школы, чтобы понять, что следует.

001.png

Давайте начнем с более абстрактной идеи. Предположим, что есть коробка. В этой коробке у нас есть определенное количество частиц. Предположим на данный момент, что в коробке 3 частицы.

002.png

Неважно, что это за частицы, важно то, что каждая из этих частиц несет определенное количество энергии, и мы здесь предположим, что они могут нести только определенное количество энергии.

003.png

Здесь мы рисуем 5 линий, каждая линия представляет собой уровень энергии, то есть количество энергии, которое может нести частица в этом положении, увеличивая уровень энергии снизу вверх, соответственно e, 2e, где e представляет собой единицу энергии не ничего. Практический смысл заключается в том, чтобы просто прояснить проблему.

006.png

Если предположить, что пропускная способность кооперацииEtotal=5eE_{total} = 5e, то сумма энергий трех частиц в ящике должна быть равна 5е, так сколько всего будет комбинаций этих трех частиц, то есть сколько микросостояний, всего шесть состояний :

  • A,B(E) + C 3E
  • A,C(E) + B 3E
  • B,C(E) + A 3E
  • A,B(2E) + C E
  • A,C(2E) + B E
  • B,C(2E) + A E

Если кратко суммировать некоторые перестановки и комбинации 3-х частиц, помещенных в ящик с энергией 5e, то есть 6 видов, то есть система имеет 6 видов микросостояний, то сколько микросостояний имеет система, также важно для понимания значения ее энтропии.

S=kBln(Ω)S = k_B\ln(\Omega)
  • S означает энтропию
  • Omega|OmegaПредставляет количество микросостояний
  • kBk_Bпостоянная Больцмана

рисунок Энтропия является мерой беспорядка данной конкретной системы, как мы видели выше, существует 6 различных способов объединения частиц, энтропия этой системы равна постоянной Больцмана, умноженной на натуральный логарифм 6.

Если предположить, что система может содержать только энергию 3e, то есть только один способ объединить 3 частицы — 3E, поэтому микросостояние системы равно 1.

007.png

До сих пор у всех было более интуитивное понимание того, как энтропия измеряет систему.В первой системе больше комбинаций частиц, а это означает, что в этой системе есть несколько микросостояний, и значение энтропии относительно велико, что Трудно предсказать, в каком микросостоянии находится система. Итак, система неупорядочена.

Вторая система имеет только одно микросостояние, поэтому мы можем определить состояние текущей системы, то есть система проблемная, а значение энтропии относительно низкое.

Выше было кратко объяснено, как энтропия измеряет порядок системы.Если мы вернемся к системе, которую мы рассмотрели ранее, то есть полная энергия равна 5e, в ящике 3 частицы, и система имеет 6 различных микроскопических состояний, то когда мы вычисляем энтропию этой системы, мы делаем неявное предположение, что вероятность нахождения системы в 6 микросостояниях равна.