2.1 一元线性回归模型有哪些基本假定?答: 1. 解释变量1x ,,2x,px是非随机变量,观测值,1ix,,2ixipx 是常数。2. 等方差及不相关的假定条件为jinjijiniEjii,0),,2,1,(,),cov(,,2,1,0)(2这个条件称为高斯 - 马尔柯夫 (Gauss-Markov) 条件,简称 G-M条件。在此条件下,便可以得到关于回归系数的最小二乘估计及误差项方差2 估计的一些重要性质,如回归系数的最小二乘估计是回归系数的最小方差线性无偏估计等。 3. 正态分布的假定条件为相互独立niniN,,,,,2,1),,0(~212在此条件下便可得到关于回归系数的最小二乘估计及2 估计的进一步结果,如它们分别是回归系数的最及2 的最小方差无偏估计等,并且可以作回归的显著性检验及区间估计。4. 通常为了便于数学上的处理, 还要求,pn及样本容量的个数要多于解释变量的个数。在整个回归分析中, 线性回归的统计模型最为重要。一方面是因为线性回归的应用最广泛; 另一方面是只有在回归模型为线性的假设下,才能的到比较深入和一般的结果;再就是有许多非线性的回归模型可以通过适当的转化变为线性回归问题进行处理。因此,线性回归模型的理论和应用是本书研究的重点。1. 如何根据样本),,2,1)(;,,,(21niyxxxiipii求出p,,,,210及方差2的估计 ; 2. 对回归方程及回归系数的种种假设进行检验;3. 如何根据回归方程进行预测和控制,以及如何进行实际问题的结构分析。2.2 考虑过原点的线性回归模型nixyiii,,2,1,1误差n,,,21仍满足基本假定。求1的最小二乘估计。答:niniiiixyyEyQ1121121)())(()(nininiiiiiiixyxxxyQ111211122)(2令,01Q即niniiiixyx11210解得,?1211niiniiixyx即1? 的最小二乘估计为.?1211niiniiixyx2.3 证明: Q (0 ,1 )= ∑( yi -0 -1 xi )2 因为 Q (0,1 )=min Q (0,1 ) 而 Q (0 ,1 ) 非负且在 R2上可导 , 当 Q取得最小值时,有即-2 ∑( yi -0 -1 xi )=0 -2∑( yi -0-1 xi ) xi =0 又 ei = yi -( 0 +1 xi )= yi -0 -1 xi∴∑ ei =0,∑ ei xi =0 (即残差的期望为0,残差以变量 x 的加权平均值为零)2.4 解:参数β 0,β 1 的最小二乘估计与最大似然估计在εi~N(0, 2 ) i=1,2 ,⋯⋯ n 的条件下等价。证明:因为niNi,.....2,1),,0(~2所以),(~2110110XXYNii其最大似然函数为已知使得 Ln(L)最大的0? ,1? 就是0,1 的最大似然估计值。即使得下式最小:niiiniXYYYQ121021))??(()?(①因为...