Glossary: ls(least squares)最小二乘法 R-sequared 样本决定系数(R2):值为0-1,越接近1 表示拟合越好,>0.8 认为可以接受,但是R2 随因变量的增多而增大,解决这个问题使用来调整 Adjust R-seqaured() S.E of regression 回归标准误差 Log likelihood 对数似然比:残差越小,L 值越大,越大说明模型越正确 Durbin-Watson stat: DW 统计量,0-4 之间 Mean dependent var 因变量的均值 S.D. dependent var 因变量的标准差 Akaike info criterion 赤池信息量(AIC)(越小说明模型越精确) Schwarz ctiterion:施瓦兹信息量(SC)(越小说明模型越精确) Prob(F-statistic)相伴概率 fitted(拟合值) 线性回归的基本假设: 1.自变量之间不相关 2.随机误差相互独立,且服从期望为0,标准差为σ 的正态分布 3.样本个数多于参数个数 建模方法: ls y c x1 x2 x3 ... x1 x2 x3 的选择先做各序列之间的简单相关系数计算,选择同因变量相关系数大而自变量相关系数小的一些变量。模型的实际业务含义也有指导意义,比如m1 同 gdp 肯定是相关的。 模型的建立是简单的,复杂的是模型的检验、评价和之后的调整、择优。 模型检验: 1)方程显著性检验(F 检验):模型拟合样本的效果,即选择的所有自变量对因变量的解释力度 F 大于临界值则说明拒绝0 假设。 Eviews 给出了拒绝0 假设(所有系统为0 的假设)犯错误(第一类错误或 α 错误)的概率(收尾概率或相伴概率)p 值,若p 小于置信度(如0.05)则可以拒绝0 假设,即认为方程显著性明显。 2)回归系数显著性检验(t 检验):检验每一个自变量的合理性 |t|大于临界值表示可拒绝系数为0 的假设,即系数合理。t 分布的自由度为n-p-1,n 为样本数,p 为系数位置 3) DW 检验:检验残差序列的自相关性,检验基本假设2(随机误差相互独立) 残差:模型计算值与资料实测值之差为残差 0<=dw<=dl 残差序列正相关,du