资讯详情

Python用MCMC马尔科夫链蒙特卡洛、拒绝抽样和Metropolis-Hastings采样算法

全文链接:http://tecdat.cn/?p=27267

原文来源:拓端数据部落微信官方账号

可视化解释马尔可夫链原理和R语言区域转换Markovregimeswitching实例

,时长07:25

马尔可夫链蒙特卡罗MCMC实现原理和R语言

,时长08:47

我们将研究两种抽样分布的方法:拒绝抽样和使用 Metropolis Hastings 马尔可夫链蒙特卡洛算法 (MCMC)。和往常一样,我会提供直观的解释、理论和一些带有代码的例子。

背景

在我们进入主题之前,让我们链接马尔可夫蒙特卡罗(MCMC)这个术语分为蒙特卡罗法和马尔可夫链的基本组成部分。

马尔可夫链

Markov Chain它是从一种状态到另一种状态的随机过程。

正如你所看到的,它看起来像一台有限的状态机器,但我们用概率注释了状态转换。例如,我们可以检查今天是否晴天,明天晴天的概率是 0.九、下雨的概率为 0.1.也从雨天开始。应该清楚的是,从给定状态出发的所有转换都应该总结 1.因为它是适当的分布。

另一种表示该信息的方法是通过转移矩阵 P:

有趣的是,我们可以通过矩阵乘法模拟马尔可夫链。例如,假设我们从阳光明媚的状态开始,我们可以将其表示为行向量:x(0)=[10]。这意味着我们处于晴天的可能性 1.因此,下雨的概率是 0。现在,如果我们执行矩阵乘法,我们可以在一步之后找到每个状态的概率:

我们可以看到明天 0.9 晴天有机会(根据我们的简单模型) 0.1 的机会下雨。实际上,我们可以继续将转换矩阵相乘,以在 k步后找到太阳/雨的机会:

我们可以很容易地计算它 x(k) 的各种 k 值,使用numpy

import numpy as np  Pa = nps.ardraasy([[0.9, 0.1], [0.5, 0.5]]) istsdatea = np.arasdray([1, 0])  siasdmulatase_markasdov(istaasdte, P, 10) 

我们可以在这里看到一个有趣的现象,当我们在状态机器中采取更多的步骤时,晴天或下雨的可能性似乎会收敛。你可能认为这与我们的初始状态有关,但事实并非如此。如果我们将初始状态初始化为随机值,我们将得到相同的结果:
 siasmdulasteds_marksov(nap.arsdray([r, 1 - r]), P, 10) x^(0) = [0.3653 0.6347] x^(1) = [0.6461 0.3539] x^(2) = [0.7584 0.2416] x^(3) = [0.8034 0.1966] x^(4) = [0.8214 0.1786] x^(5) = [0.8285 0.1715] x^(6) = [0.8314 0.1686] x^(7) = [0.8326 0.1674] x^(8) = [0.8330 0.1670] x^(9) = [0.8332 0.1668]
 

这种稳态分布称为stationary distribution通常用 π 表示。可以通过多种方式找到该稳态向量π。最直接的方法是 nn 接近无限大时取极限。

下一种方法是求解方程。因为根据定义 q是稳态,所以乘以 P 应返回相同的值:

其中 I是单位矩阵。如果你扩展我们的向量/矩阵符号,你会发现它只是一个方程组和 π1,π2,...,πn 总和为 1 (即 π 形成概率分布)。例如,只有两种状态:π1 π2=1。

然而,并不是每个马尔可夫链都有稳定的分布,甚至是唯一的但是,如果我们向马尔可夫链增加两个额外的约束,我们可以保证这些属性:

  1. 不可约:我们必须能够最终从任何其他状态到任何状态(即预期步数有限)。
  2. 非周期性:系统永远不会回到具有固定周期的相同状态(例如,不是每次) 5 确定性地返回晴天)。

一个重要的定理说,如果马尔可夫链遍历,它有一个唯一的稳态概率向量 ππ。在 MCMC 在上下文中,我们可以从任何状态跳转到任何其他状态(以一定的有限概率),轻松满足不可约束性。

我们将使用的另一个有用的定义是detailed balance and reversible Markov Chains. 满足这一条件的概率分布 π,马尔可夫链是可逆的(也称为详细的平衡条件):

换句话说,从长远来看,你从状态 i转移到状态 j次数比和你从状态的次数比 j 转移到状态 i次数比例相同。事实上,如果马尔可夫链是可逆的,那么我们就知道它分布稳定(这意味着我们使用相同的符号 π 的原因)。

马尔可夫链蒙特卡罗

马尔可夫链蒙特卡罗 (MCMC) 该方法只是一种使用马尔可夫链从特定概率分布(蒙特卡罗部分)中采样的算法。他们通过创建一个马尔可夫链来工作,限制分布(或稳定分布)只是我们想要采样的分布。

这是一张可能有助于描述过程的图片. 想象一下,我们正试图制造一个 MCMC 来尝试使用 PDF f(x)采样任何一维分布。在这种情况下,我们的状态将沿着 x 轴的点,我们的转换概率将是从一个状态到另一个状态的机会。这是情况的简化图:

这张图显示了我们试图用粗黑线接近的密度函数,以及从橙色状态过渡的蓝线马尔可夫链的部分可视化。特别是,对 i=-3、-2、-1、1、2、3 X0 到 Xi 的转换。但是,x 轴上的每一点实际上都是马尔可夫链中的一种状态。请注意,这意味着我们有无限的状态空间,所以我们不能很好地将转换表示为矩阵。MCMC 方法的真正诀窍是我们想要设计状态(或 x 轴上的点)之间的转换概率使我们花大部分时间 f(x) 在较大的区域内,在较小的区域内的时间相对较少即与我们的密度函数成准确比例)。

就我们的角色而言,我们想在中心周围花大部分时间,而在外面花更少的时间。事实上,如果我们模拟我们的马尔可夫链足够长,状态的限制分布应该类似于我们试图采样 PDF。因此,使用 MCMC 采样方法的基本算法如下:

  1. 从任意点 x开始。
  2. 以一定的转移概率跳转到点 x(这可能意味着保持相同的状态)。
  3. 转到第 2 直到我们改变 T时间。
  4. 记录当前状态 x′,进行步骤 2。

现在,我们在每一点 x 我们的比例应该是我们试图模拟的 PDF 如果我们绘制的近似值,即 x 我们应该得到相同的形状。

拒绝抽样

现在,在我们进去 MCMC 在方法的具体算法之前,我想介绍另一种采样概率分布的方法。我们稍后将使用它,称为rejection sampling. 主要思想是,如果我们试图从分布 f(x) 我们将使用另一种工具分布中采样 g(x) 来帮助从 f(x) 中采样。对某些限制的唯一限制是 M>1,f(x)<Mg(x)。它的主要用途是当 f(x) 当形式难以直接采样时(但仍可在任何点) xx 评估)。

以下是算法的细分:

  1. 从 g(x) 中采样 x。
  2. 从 U(0,Mg(x)) 中采样 y(均匀分布)。
  3. 如果 y<f(x),则接受 x 作为 f(x) 样本,否则转到步骤 1。

另一种看待它的方法是采样点 x0 概率。这个和从 g 中采样 x0 概率乘以我们接受的次数的比例,它只是由 f(x0) 和 Mg(x0) 给出两者之间的比率:

式告诉我们对任意点进行采样的概率与 f(x0) 成正比。在对许多点进行采样并找到我们看到 x0 的次数比例之后,常数 M 被归一化,我们得到了 PDF f(x) 的正确结果。

让我们通过一个例子更直观地看一下它。我们要从中采样的目标分布 f(x) 是 double gamma 分布,基本上是一个双边伽马分布。我们将使用正态分布 g(x) 作为我们的包络分布。下面的代码向我们展示了如何找到缩放常数 M,并为我们描绘了拒绝抽样在概念上是如何工作的。


# 目标 = 双伽马分布
dsg = stats.dgamma(a=1)

# 生成PDF的样本
x = np.linspace


# 绘图
ax = df.plot(style=['--', '-']

 

 

从图中,一旦我们找到 g(x)的样本(在这种情况下 x=2),我们从范围等于 Mg(x) 高度的均匀分布中绘制. 如果它在目标 PDF 的高度内,我们接受它(绿色),否则拒绝(拒绝)。

实施拒绝抽样

下面的代码为我们的目标双伽马分布实现拒绝采样。它绘制标准化直方图并将其与我们应该得到的理论 PDF 匹配。



# 从拒绝采样算法生成样本
sdampales = [rejeasdctioan_samplaing for x in range(10000)]

# 绘制直方图与目标 PDF
df['Target'].plot
 

 

总的来说,我们的拒绝采样器非常适合。与理论分布相比,抽取更多样本会改善拟合。

拒绝抽样的很大一部分是它很容易实现(在 Python 中只需几行代码),但有一个主要缺点:它很慢。

Metropolis-Hastings 算法

这 Metropolis-Hastings Algorithm (MH) 是一种 MCMC 技术,它从难以直接采样的概率分布中抽取样本。与拒绝抽样相比,对 MH 的限制实际上更加宽松:对于给定的概率密度函数 p(x),我们只要求我们有一个  与 p成正比的函数 f(x)f(x) (x)p(x)!这在对后验分布进行采样时非常有用。

Metropolis-Hastings 算法的推导

为了推导出 Metropolis-Hastings 算法,我们首先从最终目标开始:创建一个马尔可夫链,其中稳态分布等于我们的目标分布 p(x)。就马尔可夫链而言,我们已经知道状态空间将是什么:概率分布的支持,即 x 值。因此(假设马尔可夫链的构造正确)我们最终得到的稳态分布将只是 p(x)。剩下的是确定这些 x 值之间的转换概率,以便我们可以实现这种稳态行为。

马尔可夫链的详细平衡条件,这里用另一种方式写成:

这里 p(x)是我们的目标分布,P(x→x′) 是从点 x到点 x′ 的转移概率。所以我们的目标是确定P(x→x′)的形式。既然我们要构建马尔可夫链,让我们从使用等式 5 作为该构建的基础开始。请记住,详细的平衡条件保证我们的马尔可夫链将具有平稳分布(它存在)。此外,如果我们也包括遍历性(不以固定间隔重复状态,并且每个状态最终都能够达到任何其他状态),我们将建立一个具有唯一平稳分布 p(x)的马尔可夫链.

我们可以将方程重新排列为:

 

这里我们使用 f(x)来表示一个  与 p(x)成正比的函数。这是为了强调我们并不明确需要 p(x),只是需要与它成比例的东西,这样比率才能达到相同的效果。现在这里的“技巧”是我们将把 P(x→x′)分解为两个独立的步骤:一个提议分布 g(x→x′) 和接受分布 A(x→x′)(类似于拒绝抽样的工作原理)。由于它们是独立的,我们的转移概率只是两者的乘积: 

 

此时,我们必须弄清楚 g(x)和 A(x) 的合适选择是什么。由于 g(x) 是“建议分布”,它决定了我们可能采样的下一个点。因此,重要的是它具有与我们的目标分布 p(x)(遍历性条件)相同的支持。这里的一个典型选择是以当前状态为中心的正态分布。现在给定一个固定的提议分布 g(x),我们希望找到一个匹配的 A(x)。

虽然不明显,但满足公式 的 A(x) 的典型选择是: 

我们可以通过考虑 f(x′)g(x′→x)小于等于 1 和大于 1 的情况。当小于等于 1 时,它的倒数大于 1,因此 LHS 的分母,A(x′→ x), 等式 8 为 1,而分子等于 RHS。或者,当f(x′)g(x′→x)是大于 1 LHS 的分子是 1,而分母正好是 RHS 的倒数,导致 LHS 等于 RHS。

这样,我们已经证明,我们创建的马尔可夫链的稳定状态将等于我们的目标分布 (p(x)),因为详细的平衡条件通过构造得到满足。所以整体算法将是(与上面的 MCMC 算法非常匹配):

  1. 通过选择一个随机 x 来初始化初始状态。
  2. 根据g(x→x′)找到新的x′。
  3. 根据 A(x→x′) 以均匀概率接受 x′。如果接受到 x' 的转换,否则保持状态 x。
  4. 进行第 2 步,T 次。
  5. 将状态 x 保存为样本,转至步骤 2 对另一个点进行采样。

预烧和相关样本

在我们继续实现之前,我们需要讨论关于 MCMC 方法的两个非常重要的话题。第一个主题与我们选择的初始状态有关。由于我们随机选择 xx 的值,它很可能位于 p(x) 非常小的区域(想想我们的双伽马分布的尾部)。如果从这里开始,它可能会花费不成比例的时间来遍历低密度的 x 值,从而错误地给我们一种感觉,即这些 x 值应该比它们更频繁地出现。所以解决这个问题的方法是“预烧”采样器通过生成一堆样本并将它们扔掉。样本的数量将取决于我们试图模拟的分布的细节。

我们上面提到的第二个问题是两个相邻样本之间的相关性。由于根据我们的转换函数 P(x→x′)的定义,绘制 x′ 取决于当前状态 x。因此,我们失去了样本的一项重要属性:独立性。为了纠正这一点,我们抽取 Tth 个样本,并且只记录最后抽取的样本。假设 T 足够大,样本应该是相对独立的。与预烧一样,T 的值取决于目标和提议分布。

实现 Metropolis-Hastings 算法

让我们使用上面的双伽马分布示例。让我们将我们的提议分布定义为以 x 为中心、标准差为 2、N(x, 2) 的正态分布(记住 x 是当前状态):

给定 f(x) 与我们的基础分布 p(x) 成比例,我们的接受分布如下所示: 

由于正态分布是对称的,因此正态分布的 PDF 在其各自点进行评估时会相互抵消。现在让我们看一些代码:


# 模拟与双伽马分布成比例的 f(x)
f = ambd x: g.df(x* mat.i


采样器 = mhspler()

# 样本
sames = [nex(saper) for x in range(10000)]

# 绘制直方图与目标 PDF
df['Target'].plot

 

来自我们的 MH 采样器的样本很好地近似于我们的双伽马分布。此外,查看自相关图,我们可以看到它在整个样本中非常小,表明它们是相对独立的。如果我们没有为 T 选择一个好的值或没有预烧期,我们可能会在图中看到较大的值。

结论

我希望你喜欢这篇关于使用拒绝抽样和使用 Metropolis-Hastings 算法进行 MCMC 抽样的简短文章。


最受欢迎的见解

1.使用R语言进行METROPLIS-IN-GIBBS采样和MCMC运行

2.R语言中的Stan概率编程MCMC采样的贝叶斯模型

3.R语言实现MCMC中的Metropolis–Hastings算法与吉布斯采样

4.R语言BUGS JAGS贝叶斯分析 马尔科夫链蒙特卡洛方法(MCMC)采样

5.R语言中的block Gibbs吉布斯采样贝叶斯多元线性回归

6.R语言Gibbs抽样的贝叶斯简单线性回归仿真分析

7.R语言用Rcpp加速Metropolis-Hastings抽样估计贝叶斯逻辑回归模型的参数

8.R语言使用Metropolis- Hasting抽样算法进行逻辑回归

9.

标签: sames电阻仪ap1000

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台