引例:某工厂制造的产品,从过去较长一段时间 的生产情况来看,其不合格率不超过001。某 天开工后,为检验生产过程是否稳定,随机抽 取了100件产品进行检验,发现其中3件是不合 格的。问这一天的生产是否稳定?
• 引例:某工厂制造的产品,从过去较长一段时间 的生产情况来看,其不合格率不超过0.01。某 天开工后,为检验生产过程是否稳定,随机抽 取了100件产品进行检验,发现其中3件是不合 格的。问这一天的生产是否稳定?
分析:我们可算得,不合格品出现的频率为003。 由于我们不可能对所有生产的产品进行检验, 因此即使生产过程稳定,不合格率不超过0.01, 在随机抽样检验中,不合格品出现的频率也有 可能比001大如果记“X=1”表示生产出来的产 品为不合格品;“X=0”表示生产出来的产品为 合格品,我们有 P(X=1}=P,P(X=0里 参数为杈合格率。那么生产过程稳定等价于 总体X的分布为0-1分布,参数p≤60 过程不稳定等价于总体的分布为0-1分布,参 数P>001。关于生产过程是否稳定的两种假 设就转化为关于总体分布的两种假设
• 分析:我们可算得,不合格品出现的频率为0.03。 由于我们不可能对所有生产的产品进行检验, 因此即使生产过程稳定,不合格率不超过0.01, 在随机抽样检验中,不合格品出现的频率也有 可能比0.01大. 如果记“X=1”表示生产出来的产 品为不合格品;“X=0”表示生产出来的产品为 合格品,我们有 这里 参数 为不合格率。那么生产过程稳定等价于 总体X的分布为0-1分布,参数 ;生产 过程不稳定等价于总体的分布为0-1分布,参 数 。关于生产过程是否稳定的两种假 设就转化为关于总体分布的两种假设 P X p P X p { 1} ; { 0} 1 = = = = − p p 0.01 p 0.01
H:p≤0.01 H1:p>0.01 H称为原假设或者零假设;H称为备择 假设或者对立假设 所谓假设检验问题,就是要判断原假设是否 正确,也就是要作出一个决定,是接受还是拒 绝原假设
• 所谓假设检验问题,就是要判断原假设是否 正确,也就是要作出一个决定,是接受还是拒 绝原假设 0 1 : 0.01 : 0.01 H p H p H H 0 1 称为原假设或者零假设; 称为备择 假设或者对立假设
如何作出选择,需要我们从总体中抽取样 本,然后根据样本的观测值作出决定。这就需 要我们给出一个规则,此规则告诉我们,在有 了样本观测值后,我们可以作出是接受还是拒 绝原假设。 我们把这样的规则称为检验。要给出一个 有实际使用价值的检验,需要有丰富的统计思 想。我们首先对样本进行加工,把样本中包含 的关于未知参数的信息集中起来,构造出一个 适合于假设检验的统计量T
• 如何作出选择,需要我们从总体中抽取样 本,然后根据样本的观测值作出决定。这就需 要我们给出一个规则,此规则告诉我们,在有 了样本观测值后,我们可以作出是接受还是拒 绝原假设。 我们把这样的规则称为检验。要给出一个 有实际使用价值的检验,需要有丰富的统计思 想。我们首先对样本进行加工,把样本中包含 的关于未知参数的信息集中起来,构造出一个 适合于假设检验的统计量T
上面例子中,我们取 T=∑X 它表示所检验的100件产品中不合格品的总数。 是p的充分统计量,服从参数是100,p的二项分 布。一般说来,在H为真即生产过程稳定时, T的值应比较小;而在真即生产过程不稳 定时,T的值应相对地比较大。因此,我们可 以根据T值的大小来制定检验法则。对样本的 每个观测值,当统计量的观测值较大时就拒 绝,H而当T较小时就接受H0这就是说, 按照规则
• 上面例子中,我们取 它表示所检验的100件产品中不合格品的总数。 是p的充分统计量,服从参数是100, p的二项分 布。一般说来,在 为真即生产过程稳定时, T的值应比较小;而在 不真即生产过程不稳 定时,T的值应相对地比较大。因此,我们可 以根据T值的大小来制定检验法则。对样本的 每个观测值,当统计量的观测值较大时就拒 绝 ,而当T较小时就接受 。这就是说, 按照规则 = = n i T Xi 1 H0 H0 H0 H0
当t≥C时,拒绝原假设 当t<C时,接受原假设 其中c是一个待定的常数。不同的c值表示不同 的检验,如何确定c,需要有熟练的计算技巧和 丰富的统计思想,我们称T为检验统计量;c为 检验临界值;W={t≥c}为拒绝域;W={<e 为接受域
• 当 时,拒绝原假设; 当 时,接受原假设; 其中c是一个待定的常数。不同的c值表示不同 的检验,如何确定c,需要有熟练的计算技巧和 丰富的统计思想,我们称T为检验统计量;c为 检验临界值; 为拒绝域; 为接受域。 t c t c W t c = { } W T c = { }
两类错误 每一个检验都会不同程度地犯两类错误。 上面例子中,原假设本来正确,由于样本的随 机性,检验统计量的观测值落入了拒绝域,就 拒绝原假设,这时称假设检验过程中犯了第 类错误,也称“弃真错误”;原假设本来不正 确,由于样本的随机性,检验统计量的观测值 落入了接受域,就接受原假设,这时称假设检 验过程中犯了第二类错误,也称“存伪错误
• 两类错误 每一个检验都会不同程度地犯两类错误。 上面例子中,原假设本来正确,由于样本的随 机性,检验统计量的观测值落入了拒绝域,就 拒绝原假设,这时称假设检验过程中犯了第一 类错误,也称“弃真错误”;原假设本来不正 确,由于样本的随机性,检验统计量的观测值 落入了接受域,就接受原假设,这时称假设检 验过程中犯了第二类错误,也称“存伪错误”
个检验的好坏可由犯这两类错误的概率来度 量。常把犯第一类错误的概率记为α,犯第. 类错误的概率记为β。由于它们常依赖于总 体中未知参数e,故又常记为a(O)和f() 上面例子中 100 a(p)=P⊥∑X≥c|0<p≤001} 100 =∑c10p(-p)0:0<p≤001 B(p)=P∑X<cl1001<p≤1l ∑c1op(1-p);0.01<ps1
• 一个检验的好坏可由犯这两类错误的概率来度 量。常把犯第一类错误的概率记为 ,犯第二 类错误的概率记为 。由于它们常依赖于总 体中未知参数 ,故又常记为 。 上面例子中 ( ) ( ) 和 100 1 ( ) { | 0 0.01} i i p P X c p = = 100 100 100 (1 ) ;0 0.01 j j j j c C p p p − = = − 100 1 1 100 100 0 ( ) { | 0.01 1} (1 ) ;0.01 1 i i c j j j j p P X c p C p p p = − − = = = −
数。犯第一类错误的概率是0<卩≤0心的 可见,犯两类错误的概率均为参数p的函 的函数;犯第二类错误的概率是0.01<p≤1 的函数。犯两类错误的概率也是c的函数,c的 值越大,犯第一类错误的概率就越小,而犯第 二类错误的概率就越大;相反,c的值越小, 犯第一类错误的概率就越大,而犯第二类错误 的概率就越小;因此,犯两类错误的概率是相 互制约的
可见,犯两类错误的概率均为参数p的函 数。犯第一类错误的概率是 的函数;犯第二类错误的概率是 的函数。犯两类错误的概率也是c的函数,c的 值越大,犯第一类错误的概率就越小,而犯第 二类错误的概率就越大;相反,c的值越小, 犯第一类错误的概率就越大,而犯第二类错误 的概率就越小;因此,犯两类错误的概率是相 互制约的 . 0 0.01 p 0.01 1 p
奈曼( Neyman)和皮尔逊( Pearson)提出, 首先控制犯第一类错误的概率,即选定一个 数α(0<α<1),使得检验中犯第一类错误的概 率不超过a。然后,在满足这个约束条件的检 验中,寻找犯第二类错误的概率尽可能小的检 验。这就是偎设检验理论中的奈曼-皮尔逊原则。 寻找犯第二类错误的概率尽可能小的检验,在 理论和计算中都并非容易。为简单起见,在样 本容量n固定时,我们着重对犯第一类错误的 概率加以控制,适当考虑犯第二类错误的概率 的大小。称控制犯第一类错误的概率不超过 的检验凼显著性检验。称C为显著性水平
• 奈曼(Neyman)和皮尔逊(Pearson)提出, 首先控制犯第一类错误的概率,即选定一个 数 ,使得检验中犯第一类错误的概 率不超过 。然后,在满足这个约束条件的检 验中,寻找犯第二类错误的概率尽可能小的检 验。这就是假设检验理论中的奈曼-皮尔逊原则。 寻找犯第二类错误的概率尽可能小的检验,在 理论和计算中都并非容易。为简单起见,在样 本容量n固定时,我们着重对犯第一类错误的 概率加以控制,适当考虑犯第二类错误的概率 的大小。称控制犯第一类错误的概率不超过 的检验为显著性检验。称 为显著性水平 (0 1)