电脑桌面
添加小米粒文库到电脑桌面
安装后可以在桌面快捷访问

机器学习之线性回归、岭回归和Lasso回归VIP免费

机器学习之线性回归、岭回归和Lasso回归_第1页
1/6
机器学习之线性回归、岭回归和Lasso回归_第2页
2/6
机器学习之线性回归、岭回归和Lasso回归_第3页
3/6
其中,。其中m为训练集样本数,n为样本维度,y是样本的真实值。线性回归采用一个高维的线性函数来尽可能的拟合所有的数据点,最简单的想法就是最小化函数值与真实值误差的平方(概率解释-高斯分布加最大似然估计)。即有如下目标函数:T—皿.;-a』⑹(屉(門-严)i=i、niiiiJ(白|其中线性函数如下:如(工1"]=純+#1理+直云十务点构建好线性回归模型的目标函数之后,接下来就是求解目标函数的最优解,即一个优化问题。常用的梯度优化方法都可以拿来用,这里以梯度下降法来求解目标函数。”xyuT-?771,,构成如下数据矩阵。j=1A、线性回归假设有数据有:另外,线性回归也可以从最小二乘法的角度来看,下面先将样本表示向量化,那么目标函数向量化形式如下:可以看出目标函数是一个凸二次规划问题,其最优解在导数为0处取到。=XXT—XY=0今仪=(xxTy^XY值得注意的上式中存在计算矩阵的逆,一般来讲当样本数大于数据维度时,矩阵可逆,可以采用最小二乘法求得目标函数的闭式解。当数据维度大于样本数时,矩阵线性相关,不可逆。此时最小化目标函数解不唯一,且非常多,出于这样一种情况,我们可以考虑奥卡姆剃刀准则来简化模型复杂度,使其不必要的特征对应的W为0。所以引入正则项使得模型中W非0个数最少。当然,岭回归,lasso回归的最根本的目的不是解决不可逆问题,而是防止过拟合。B、概率解释损失函数与最小二乘法采用最小化平方和的概率解释。假设模型预测值与真实值的误差为,那么预测值与真实值之间有如下关系:d"=咖(卅")+根据中心极限定理,当一个事件与很多独立随机变量有关,该事件服从正态分布。一般来说,连续值我们都倾向于假设服从正态分布。假设每个样本的误差独立同分布均值为0,方差为。的高斯分布,所以有:即表示满足以均值为由最大似然估计岭回归和Lasso回归岭回归的目标函数在一般的线性回归的基础上加入了正则项,在保证最佳拟合误差的同时,使得参数尽可能的“简单”,使得模型的泛化能力强(即不过分相信从训练数据中学到的知识)。正则项一般采用一,二范数,使得模型更具有泛化性,同时可以解决线性回归中不可逆情况。m"尹=卩」一a£(加(訓)一沖)誉一码1=1另外从最小二乘的角度来看,通过引入二范正则项,使其主对角线元素来强制矩阵可逆。Lasso回归采用一范数来约束,使参数非零个数最少。而Lasso和岭回归的区别很好理解,在优化过程中,最优解为函数等值线与约束空间的交集,正则项可以看作是约束空间。可以看出二范的约束空间是一个球形,而一范的约束空间是一个其迭代优化函数如下:方形,这也就是二范会得到很多参数接近0的值,而一范则尽可能非零参数最少。值得注意的是线性模型的表示能力有限,但是并不一定表示线性模型只能处理线性分布的数据。这里有两种常用的线性模型非线性化。对于上面的线性函数的构造,我们可以看出模型在以的坐标上是线性的,但是并不表示线性的模型就一定只能用于线性分布问题上。假如我们只有一个特征,而实际上回归值是等,我们同样可以采用线性模型,因为我们完全可以把输入空间映射到高维空间,其实这也是核方法以及PCA空间变换的一种思想,凡是对输入空间进行线性,非线性的变换,都是把输入空间映射到特征空间的思想,所以只需要把非线性问题转化为线性问题即可。另外一种是局部线性思想,即对每一个样本构建一个加权的线性模型。局部加权线性回归考虑到线性回归的表示能力有限,可能出现欠拟合现象。局部加权线性回归为每一个待预测的点构建一个加权的线性模型。其加权的方式是根据预测点与数据集中点的距离来为数据集中的点赋权重,当某点距离预测点较远时,其权重较小,反之较大。由于这种权重的机制引入使得局部加权线性回归产生了一种局部分段拟合的效果。由于该方法对于每一个预测点构建一个加权线性模型,都要重新计算与数据集中所有点的距离来确定权重值,进而确定针对该预测点的线性模型,计算成本高,同时为了实现无参估计来计算权重,需要存储整个数据集。局部加权线性回归,在线性回归基础上引入权重,其目标函数(下面的目标函数是针对一个预测样本的)如下:11?,7J糾-E(加(曲)-理)minJ(0)一般选择下面...

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
3、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。

碎片内容

机器学习之线性回归、岭回归和Lasso回归

确认删除?
VIP
微信客服
  • 扫码咨询
会员Q群
  • 会员专属群点击这里加入QQ群
客服邮箱
回到顶部