拉丁超立方抽样_第1页
拉丁超立方抽样_第2页
拉丁超立方抽样_第3页
拉丁超立方抽样_第4页
拉丁超立方抽样_第5页
已阅读5页,还剩2页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、拉丁超立方抽样从蒙特卡罗误差估计中,我们可以看到,大多数 统计量的估计值的敛散性都与亠有关。特别的,对 y/N于均值的估计量,我们发现:而问题在于厶是否能被改善。值得注意的是蒙特卡 y/N罗方法的一个主要优点就是他的敛散性依赖于独立的 随机参数个数,而接下来我们将要看到的是一种完全 不同的抽样方式:拉丁超立方抽样(LHS)。但首先, 我们要先了解一下分层抽样的相关内容。分层抽样我们考虑一维的单个变量输入问题:y = f(x), x 是一个随机变量。分层抽样通过如下的步骤来进行:1)定义参与计算机运行的抽样数目M2)将x等概率地分成若干个区域 "bin”,xo<xl<x2&

2、lt;xy<x<xn+l-<xN使得 P(xn<x<xn+1) = l:3)样本一次落入哪一个bin屮取决丁该bin的概率密度函数,样本0使得且概率为P(兀邸 VXV£)S,1N 1此时,均值的估计量可表示为:NW-刃27?=1等等分层抽样的谋岸估计我们只考虑均值y的标准误差,有:这里,同等于第i个bin中y的均值。(再_)等式右边第一项同蒙特卡罗方法的标准误差一样,第 一项为附加项,它使方差变小。所以,较之基于随机 抽样的蒙特卡罗方法,分层抽样降低了误差的方差。多维分层抽样对于有多个随机变量的输入,分层抽样需要 将输入的样本空间等概率地化为N个区域,而

3、这操作 起来是很困难的。(注意:仅仅在每一维上等概划分是 不行的)考虑一个二维的情形:2 bins2 bins假设珀,勺是均匀分布的(即二向同性的),则有:N =2x2 = 4 bins对于一般N”个bins,考虑一个d维输入问题,我们发 现有:N=(Nj举个例子,对于8维输入且每维上有2个bins,N = 2S= 256 bins或者,每维有3个bins,TV =38 =6561 bins显然,抽样数目随着每维bins的数目的增加而迅速增 加。拉丁超立方抽样拉丁超立方抽样是另一种多维分层抽样方法,下 面我们介绍它的工作原理:1)定义参与计算机运行的抽样数目M2)把每一次输入等概率地分成N列,

4、xiO<xil<xi2<xi3-<xin且有 P(X <x<x+1) = -3)对每一列仅抽取一个样本,各列中样本bin的位置 是随机的。N = 4个样本 的2维问题X.k丄 *«*i.,亢U &二耳芒AJ)/相对于单纯的分层抽样,拉丁超立方抽样的最大优势 就在于任何大小的抽样数目都能容易地产生。至于估计均值,通常的做法是:_1 Ny和孚的一般情况下,这种估计的标准误差不能认为是对标准 蒙特卡洛抽样方法的改进。但实际上,拉丁超立方抽 样对均值和方差的估计和蒙特卡罗方法相比,在效果 上至少是一样的,且常常会显著改善。问题:因为拉丁超立方抽样标

5、准误差的理论估计并不 是''贴紧”的,(例如:实际的均值远好于由误差估计 得到的值),边界必然是很悲观的。尽管一般来讲误差估计对于拉丁超立方抽样不是很理想,但有个特别的例子表明拉丁超立方抽样较Z蒙特卡罗方法有潜在的 改进。我们来看看这个例子:假设y是关于输入变量的线性函数y 土小分别利/=1用蒙特卡罗抽样和拉丁超立方抽样方法,再对均值进 行估计,结果都是:y=£/(*)而标准误差分别是:MC:LHS:拉丁超立方抽样的标准误差 1=蒙特卡洛抽样的标准课差N2我们可以看到,拉丁超立方抽样对样本数量的节省非 常显著。因此,对丁输出结果能用一个线性函数很好的逼 近的情况下,我们认为拉丁超立方抽样比蒙特卡洛抽 样更好。

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论