专栏名称: 郭老师统计小课堂
介绍统计学课程的知识,方法和思想
目录
相关文章推荐
小米汽车  ·  #小米SU7Ultra#原型车今日现身小米科 ... ·  昨天  
小鹏汽车  ·  小鹏P7+答用户问(第11期) ·  2 天前  
高工智能汽车  ·  AI汽车新风向:「死磕」AI底盘,引爆线控底 ... ·  5 天前  
鹤城发布  ·  明确了,减免! ·  3 天前  
51好读  ›  专栏  ›  郭老师统计小课堂

策略中心极限定理

郭老师统计小课堂  · 公众号  ·  · 2024-05-01 19:37

正文

本文“Strategic Two-Sample Test via the Two-Armed Bandit Process, (JRSSB)”提出了一个适用于假设检验的非线性中心极限定理(非线性CLT),并命名为“ 策略中心极限定理 ”(策略CLT)。通过制定最优策略,开展最优极限分布(最优非线性正态分布)下的假设检验过程。本文研究的原假设是分析两个总体均值参数之间的差异是否大于预先给定的某个常数。经典的检验统计量将原始数据视为可交换的(即独立假设),而本文打破了数据可交换这一假设,提出一个新 可信赖双臂老虎机 过程 来策略性地融合数据,形式上将经典的CLT与大数定律的表达式通过“策略”联合起来构建了一个新的非线性检验统计量(亦成 策略检验统计量 ),鉴于不同的策略对应不同的数据融合方式,因此本文在更大的概率空间下研究策略检验统计量的极限行为。通过制定最优策略,研究了最优策略下的极限分布(亦称最优分布),包括密度函数表达式、显著性水平的计算等。理论和模拟上得到了策略CLT优于传统线性CLT在开展假设检验过程功效大的依据,因为理论发现所提出的最优策略检验统计量比传统的线性CLT 检验统计量的极限分布在原假设下更集中,在备择假设下更分散,从而增强了检验功效。

1. 背景介绍

在此,我们考虑一个双样本检验的通用框架。假设在第 个阶段可以从两个未知总体中生成一系列成对的数据集 , 对于 ,这两个总体的均值分别为 。本文的原假设是考虑两个总体参数之间的差异是否大于预先指定的一个常数:

其中, 是一个用于判断参数 之间差异的常数临界值。假设对于来自两个不同来源的流数据的不同批次,成对观测值 是相互独立的。自然地,我们会考虑以下两个传统的检验统计量来进行假设检验:

这里, 。上述检验统计量本质上在双样本检验性能上是等价的。它们在构建检验统计量时由于标准化,导致没有考虑原假设 的这一知识。因此,本文通过设计两个额外的统计量来考虑这一特定知识:

如果 ,即两个检验统计量的渐近分布具有不同的中心,分别为 。当考虑特定的原假设 时,两个中心分别是正值和负值。由于上述统计量在原假设下有不同的极限分布,我们可以打破传统的数据可交换这一假设,通过双臂老虎机(TAB)过程来“策略”的汇总它们,从而重新整合数据,即在第 时刻,到底使用 还是 呢。另外,采用策略研究的优势是,不同的策略对应不同的检验统计量,从而在更大的概率空间中研究策略检验统计量的极限行为,也为研究最优策略下的最优极限分布奠定了基础(详细内容见下章节)。本质上,这种统计量的构造使用了原假设的知识(即 ),致使所开发的策略检验统计量在原假设下变得更集中,在备择假设下变得不那么集中(即比标准正态分布更分散),从而提高了检验的功效。

2. 方法(可信赖双臂老虎机,Responsible TAB)

接下来,采用双臂老虎机(TAB)模型将上面体现原假设信息的检验统计量结合起来,TAB是一种利用两个手臂(臂 和臂 )的老虎机顺序的从两个分布中策略采样的过程。拉动每个臂时,可以基于某个概率分布获得奖励(这里指观测值)。具体来说,在第 阶段,通过动手臂 (TAB每一个时刻只能动一个手臂) ,分别产生成对观测 ,这类似于从对应的两个检验统计量的渐近正态分布(即 (手臂 的分布)和 )(手臂 的分布) 中获得奖励的经典TAB 过程。直到最后阶段 ,产生一系列的TAB观测值。我们可以通过一个策略序列 来描述这一过程,其中 )表示使用臂 接收成对观测 (使用臂 获得 )。 策略随机变量 可以定义为:

其中, 是通过历史信息实际确定的(下面定理1给出了一个制定最优 的过程)。然后,我们基于TAB过程构建以下 策略统计量 均值-波动统计量 ):

这里

的一致估计量,例如,可以采用 的渐近分布由策略 决定,例如 的大部分元素为1, 的分布接近 的极限分布,如果大部分元素为0, 的分布接近 的极限分布。

TAB过程打破了数据的可交换结构,不同的策略 对应不同的数据交换方式,因此这种设计可以在更大的概率空间上研究统计量 的极限行为。本文旨在获得更强的假设检验功效制定了最优策略 。 接下来,我们通过定理1 给出最大化统计量 在区间 上的覆盖概率来制定最优策略,表示为

定理1(最优策略 对于任何 ,我们可以如下构造策略

不失一般性,如果将标准正态分布视为基准分布,我们发现在 下统计量 的渐近方差小于标准正态分布,即最优 会使得统计量在原假设下变得更集中,相应地在备择假设下变得不那么集中(即在 下, 的极限分布变得比标准正态分布更分散)。 因为在最优策略 下,我们有:

其中 。对称区间 上的约束意味着统计量 的渐近分布围绕0对称。事实上, 在区间 上有更多的概率等同于在设计的策略 下, 的渐近分布比标准正态分布更集中。传统的TAB程序旨在通过交替选择臂 来推进最终平均奖励向最大平均奖励的臂靠拢,我们把以分布收敛的策略统计量 落在某一区间最大概率来制定最优策略 的双臂老虎机学习称为 可信赖双臂老虎机学习 。因此,本研究挑战了追求最大平均奖励的传统目标,因为在特定的零假设 下,“臂 的期望大于臂 的期望”,即 的信息相当于是已知的。因此, 可信赖双臂老虎机学习通过考虑风险(即方差),将追求最大化期望(最大化回报)的目标转化为最大化概率(即策略统计量落在区间 上的最大概率)来制定最优策略 。并为接下来的假设检验做铺垫。

3. 理论结果

接下来,我们发展最优策略下检验统计量 的渐近分布,即最优策略下的策略中心极限定理。

定理2(策略中心极限定理) 表示定义在 上具有有限极限的连续函数的集合,并且它是一个偶函数,在 上单调递增。对于任意 ,我们使用上面的最优策略,得到如下结果:

这里, 是一个最优策略下的极限分布,对应参数为:

确切地说,对任意 , 我们能够得到

上面定理解释了以下结果:

  1. 如果 , 的极限分布服从参数为 尖峰分布 ,即当 时, ,其中 。 给定显著水平 和原假设中的差值 ,我们可以计算临界值 满足以下条件:

通过以下公式:

  1. 此外,当 时,上述的尖峰分布 变成标准正态分布。
  2. 如果原假设 成立,定理2表明 的极限分布比






请到「今天看啥」查看全文