2.1 一元线性回归模型有哪些基本假定? 答:1. 解释变量 1x ,,2x,px是非随机变量,观测值,1ix,,2 ixipx 是常数。 2. 等方差及不相关的假定条件为 jinjijiniEjii,0),,2,1,(,),cov(,,2,1,0)(2 这个条件称为高斯-马尔柯夫(Gauss-Markov)条件,简称 G-M 条件。在此条件下,便可以得到关于回归系数的最小二乘估计及误差项方差2 估计的一些重要性质,如回归系数的最小二乘估计是回归系数的最小方差线性无偏估计等。 3. 正态分布的假定条件为 相互独立niniN,,,,,2,1),,0(~212 在此条件下便可得到关于回归系数的最小二乘估计及 2 估计的进一步结果,如它们分别是回归系数的最及2 的最小方差无偏估计等,并且可以作回归的显著性检验及区间估计。 4. 通常为了便于数学上的处理,还要求,pn 及样本容量的个数要多于解释变量的个数。 在整个回归分析中,线性回归的统计模型最为重要。一方面是因为线性回归的应用最广泛;另一方面是只有在回归模型为线性的假设下,才能的到比较深入和一般的结果;再就是有许多非线性的回归模型可以通过适当的转化变为线性回归问题进行处理。因此,线性回归模型的理论和应用是本书研究的重点。 1. 如何根据样本),,2,1)(;,,,(21niyxxxiipii求出p,,,,210及方差2的估计; 2. 对回归方程及回归系数的种种假设进行检验; 3. 如何根据回归方程进行预测和控制,以及如何进行实 际 问题的结构 分析。 2.2 考 虑 过原 点的线性回归模型 nixyiii,,2,1,1误差n,,,21仍 满 足 基本假定。求1 的最小二乘估计。 答: niniiiixyyEyQ1121121)())(()( nininiiiiiiixyxxxyQ111211122)(2 令 ,01Q即niniiiixyx11210 解得,ˆ1211niiniiixyx即1ˆ 的最小二乘估计为.ˆ1211niiniiixyx 2.3 证明: Q (0 ,1 )= ∑( yi -0 -1 xi )2 因为Q (0 ,1 )=min Q (0,1 ) 而Q (0 ,1 ) 非负且在R2 上可导,当Q 取得最小值时,有 即-2∑( yi -0 -1 xi )=0 -2∑( yi -0-1 xi ) xi =0 又 ei = yi -( 0+1 xi )= yi -0-1 xi ∴∑ei =0,∑ei xi =0 (即残差的期望...