Вот твоя раздача (смешно
Как описать характеристики этого распределения, набрав всего 1 тыс. точек?
Почему образец?
Ближайшая цель — использовать дискретные данные.приблизительныйВместо непрерывных (или изначально дискретных) данных, например, для вычисления интеграла очень сложной функции f, предполагая, что найти исходную функцию F этой функции очень сложно, то можно использовать приближенное значение вместо реальная стоимость. Простой и эффективный способ — вычислить значение f на каждом расстоянии 0,01 в области определения, а затем использовать небольшую прямоугольную область — 0,01*f(x) для представления интеграла функции в этом диапазоне и, наконец, площадь всей функции вычисляется многими Подставляем сумму площадей маленьких прямоугольников. Вычисление интегралов функций действительно является важным применением выборки.
Выборка может значительно снизить трудность расчета, но все же есть глубокие знания о том, как проводить выборку, и распределение результатов выборки должно быть близко к реальному распределению.
Другими словами, следует собирать больше точек там, где плотность вероятности высока, и меньше точек — там, где плотность вероятности низка.
Например, в приведенном выше примере также собирается 1w точек, и эффект выборки слева больше соответствует реальному распределению.
Как примерить?
Выборка распределения вероятностей
Теперь предположим, что есть распределение, функция плотности вероятности (PDF) распределения известна, и его функция распределения (cdf) может быть вычислена. Затем с помощью компьютера сгенерируйте равномерное распределение, результат выборки по Y отображается обратно на X с помощью cdf, и получается равномерная выборка распределения. Идея выборки представлена визуально на следующем рисунке.
Окончательная формула:
Но что, если pdf слишком сложен для расчета cdf? Тогда нет возможности произвести выборку с распределением вероятностей.
отклонить выборку
пожалуйста помоги
Отклонить выборку, введя распределение известных pdf и cdf, чтобы обойти и вычислить распределение, которое было трудно выбрать раньше. Это введенное распределение называется «эталонным распределением», которое может быть записано как, в то время как сэмпл для семплирования записывается как. Отклонение выборки требует другого коэффициента, и убедитесь, что в интервале, в котором необходимо выполнить выборку,.
так какcdf известен, поэтому его легко получитьРазумная выборка , предполагая, что полученная выборка. Но это время принадлежитРаспределение баллов не соответствуетраспределение, то нужно только пройти каждую точку, при бросании «кости», которая может каждый раз генерировать равномерно распределенные случайные числа от 0 до 1, число u, полученное с помощью «кости», и скорость принятиядля сравнения, еслиПросто примите эту точку выборки, иначе ее можно будет отбросить.
Причина, по которой отбраковочная выборка является разумной, заключается в том, что ее физический смысл также очень интуитивен, поскольку она умножается на коэффициентПосле того, как q(x) больше или равно p(x), набор точек выборки собирается в соответствии с распределением q(x)Аппроксимируйте площадь под кривой q(x), а коэффициент приемлемости представляет собой отношение площади под сравниваемым значением q(x) и p(x), поэтому оставшаяся точка, установленная после скрининга коэффициента приемлемости, аппроксимирует площадь под p (х) кривая .
Однако по-прежнему существует множество ограничений на отказ от выборки, например, q(x) должно быть как можно ближе к p(x), иначе эффективность выборки будет очень низкой. Во-вторых, выбор k должен быть правильным, и он должен быть как можно меньше, удовлетворяя при этом требованиям уравнения отбора проб.
Выборка по важности
также попросить помощника
Выборка по важности полезна при вычислении математического ожидания функции f относительно распределения p, т. е.. И это p не только трудно выбрать, но и реальное распределение является относительно смещенным, Другими словами, даже если некоторые точки выборки собраны, большинство этих точек выборки соответствует части с малым значением f, как показано на следующий рисунок.
Чтобы решить эту проблему, вводится простое эталонное распределение q, и есть надежда, что проблема «отклонения от масс» p может быть улучшена с помощью q.
Коллективный подход таков, как сказано выше, для расчета ожиданий, там подробно написано
После введения q выполните перестановочное преобразование
После такой операции исходное математическое ожидание f относительно p становитсяОжидания по поводу q! Поскольку выборка q проста и, как показано на рисунке выше, важная часть, которую изначально было нелегко собрать для f, зависит отвлияние становится очень легко получить. Таким образом, желаемое отклонение не будет слишком большим из-за разреженности данных.
Другими словами, частота выборки важности в некоторых статьях все еще очень велика, и это действительно важная выборка.
MCMC
Основная роль этой статьи заключается в том, что полное название MCMC - марковская цепь Монте-Карло, что означает метод применения рандомизации в цепи Маркова. Цепь Маркова может быть описана переходной матрицей, когда задано начальное состояние, затем это начальное состояние начинает случайным образом переключать состояния под действием переходной матрицы. Другими словами, MCMC рассматривает цепи Маркова как инструмент для моделирования переходов состояний посредством рандомизации.
Когда дело доходит до Маркова, нужно сказать об очень важном свойстве, а именно о его «стационарном распределении». Если начальное состояние задано случайным образом, то запускается переход состояния, а затем подсчитывается частота появления каждого состояния. Этот процесс можно описать умножением матриц, предполагая, что начальное состояние равно, матрица перехода, то каждый переход можно рассматривать как такое преобразование
Если начать с начального состояния, то состояние в момент времени t можно выразить как
По мере того, как t продолжает увеличиваться, распределение становится примерно стабильным, как показано на следующем рисунке, даже если начальное распределение находится в каждом углу пространства, по мере продолжения итерации конечное распределение будет иметь тенденцию быть стабильным.
Другими словами, стабильное распределение вероятностей, к которому сходится матрица перехода состояний нашей модели цепи Маркова, не зависит от нашего начального распределения вероятностей состояний.
Пока цепь Маркова сходится к стационарному распределению π, существует уравнение, называемое «детальный баланс»,
в уравнении- элемент в марковской переходной матрице, представляющий вероятность перехода от x к y. Это уравнение хорошо описывает природу марковской стационарности.
Поговорив о свойствах модели цепи Маркова, давайте начнем вводить тему, то есть как MCMC сочетает модель цепи Маркова с методом Монте-Карло и собирает выборочное распределение, которое согласуется с исходным распределением.
MH (Метрополис-Гастингс)
M-H — это реализация MCMC. Оглядываясь назад, как возникло это точно сбалансированное уравнение, приведенное выше? Первый и наиболее важный шаг — найти переходную матрицу M, которая удовлетворяет марковскому свойству, чтобы можно было получить последующее устойчивое распределение и, наконец, можно было достичь условия детального баланса.
Однако в соответствии с требованием «выборки исходного распределения» у нас есть только стационарное распределение (то есть само исходное распределение), но нет матрицы перехода состояний, удовлетворяющей стационарному распределению. Итак, как построить такую матрицу? В конце концов, не все матрицы могут вывести желаемое стационарное распределение.
Подход M-H очень смелый: он использует случайную марковскую переходную матрицу Q размером с целевую переходную матрицу как часть переходной матрицы. Очевидно, в это время. Затем, чтобы сделать уравнения равными, вводится понятие, подобное коэффициенту принятия, упомянутому в выборке отбраковки. сделать, так строится тонкий баланс
Поскольку Q является случайным, то есть любая переходная матрица, удовлетворяющая марковскому свойству, может работать, поэтому для простоты Q можно даже установить в симметричную матрицу, а скорость принятия можно упростить следующим образом:. Шаги алгоритма M-H следующие:
- Входные данные должны быть взяты из стационарного распределения, количество передач n;
- Случайным образом построить марковскую переходную матрицу Q;
- выбрать начальное состояние;
- для t = 1 до n:
- выборка;
- выборка из равномерного распределения;
- if u < : принять перевод, заказать;
- иначе: не переводить, пусть;
- Вернуть собранный ряд x;
Кажется удивительным, что знаменитый MCMC может быть реализован с помощью программы, которая не может быть проще, но эффект выборки действительно превосходный.Давайте посмотрим на результаты выборки алгоритма M-H для распределения бета (5,12):
код показывает, как показано ниже:
import random
import numpy as np
import matplotlib.pyplot as plt
from scipy.stats import beta
# 转移矩阵用正态分布
N = 5000
xs = [i for i in range(N)]
xs[0] = random.random()
p = beta(5, 12)
for i in range(1, N):
x_star = random.uniform(0,1) # 从U[0,1]中采样
alpha = min(1, p.pdf(x_star) / p.pdf(xs[i-1]))
u = random.uniform(0,1)
xs[i] = x_star if u < alpha else xs[i-1]
plt.hist(xs, 50, density=1)
x = np.linspace(0, 1, 200)
plt.plot(x, [p.pdf(i) for i in x])
plt.show()
Gibbs
Гиббс подходит для выборки многомерных распределений и резюмирует свою идею в одном предложении: фиксируя случайные величины в других измерениях, случайные величины в оставшемся измерении по-прежнему удовлетворяют хрупкому равновесию. Первое, что нужно сделать, это найти правильный баланс. Теперь предположим, что вы хотите собрать двумерное совместное распределение, есть две точки на распределениии B (x_1 ^ 1, x_2 ^ 2), вы можете видеть, что их первое измерение одинаково, в это время. Это очевидно, так как же сделать его равным? Еще на стройке. так как, поэтому до тех пор, пока левая и правая части уравнения умножаются на пункт «у другой стороны есть, а у другой нет», уравнение установлено, то есть
который
Поскольку связь между точкой A и точкой B заключается в том, что определенное измерение одинаково, в процессе получения уравнения с помощью приведенной выше конструкции мы можем обнаружить, что если две точки в двумерном пространстве имеют одинаковую размерность, то взаимная трансформация этих двух точек Удовлетворяет хрупкий баланс.
{% asset_img Gibbs.png %}
Например, между A и B существует тонкая и сбалансированная трансформационная связь между A и C, но нет никакой связи между B и C.
Так как же Гиббс сэмплирует? Возьмите двумерную выборку в качестве примера
- Учитывая стационарное распределение, учитывая количество переходов n;
- Произвольно инициализировать точку;
- для t = 1 до n:
- фиксированный, выборка,получить;
- фиксированный, выборка,получить;
- получить новую точку отбора проб;
- Вернуть собранную серию X;
Это также очень простой процесс.