1,T 检验和 F 检验的由来一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设 null hypothesis,Ho)
相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定
F 值和 t 值就是这些统计检定值,与它们相对应的概率分布,就是 F 分布和 t 分布
统计显著性(sig)就是出现目前样本这结果的机率
2,统计学意义(P 值或 sig 值) 结果的统计学意义是结果真实程度(能够代表总体)的一种估量方法
专业上,p值为结果可信程度的一个递减指标,p 值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标
p 值是将观察结果认为有效即具有总体代表性的犯错概率
05 提示样本中变量关联有 5%的可能是由于偶然性造成的
即假设总体中任意变量间均无关联,我们重复类似实验,会发现约 20 个实验中有一个实验,我们所讨论的变量关联将等于或强于我们的实验结果
(这并不是说假如变量间存在关联,我们可得到 5%或 95%次数的相同结果,当总体中的变量存在关联,重复讨论和发现关联的可能性与设计的统计学效力有关
)在许多讨论领域,0
05 的 p 值通常被认为是可接受错误的边界水平
3,T 检验和 F 检验至於具体要检定的内容,须看你是在做哪一个统计程序