电脑桌面
添加小米粒文库到电脑桌面
安装后可以在桌面快捷访问

机器学习SVM习题集

机器学习SVM习题集_第1页
1/10
机器学习SVM习题集_第2页
2/10
机器学习SVM习题集_第3页
3/10
SVM 1.判断题 (1) 在SVM训练好后,我们可以抛弃非支持向量的样本点,仍然可以对新样本进行分类。(T) (2) SVM对噪声(如来自其他分布的噪声样本)鲁棒。(F) 2.简答题 现有一个点能被正确分类且远离决策边界。如果将该点加入到训练集,为什么SVM的决策边界不受其影响,而已经学好的logistic回归会受影响? 答:因为SVM采用的是hinge loss,当样本点被正确分类且远离决策边界时,SVM给该样本的权重为0,所以加入该样本决策边界不受影响。而logistic回归采用的是log损失,还是会给该样本一个小小的权重。 3.产生式模型和判别式模型。(30 分,每小题 10 分) 图 2:训练集、最大间隔线性分类器和支持向量(粗体) (1)图中采用留一交叉验证得到的最大间隔分类器的预测误差的估计是多少(用样本数表示即可)? 从图中可以看出,去除任意点都不影响SVM的分界面。而保留所有样本时,所有的样本点都能被正确分类,因此LOOCV的误差估计为0。 (2)说法“最小结构风险保证会找到最低决策误差的模型”是否正确,并说明理由。(F) 最小结构风险(SRM)只能保证在所有考虑的模型中找到期望风险上界最小的模型。 (3)若采用等协方差的高斯模型分别表示上述两个类别样本的分布,则分类器的VC维是多少?为什么? 等协方差的高斯模型的决策边界为线性,因为其VC维维D+1。题中D=2. 4、SVM 分类。(第 1~5 题各 4 分,第 6 题 5 分,共 25 分) 下图为采用不同核函数或不同的松弛因子得到的 SVM 决策边界。但粗心的实验者忘记记录每个图形对应的模型和参数了。请你帮忙给下面每个模型标出正确的图形。 (1)、211min, s.t.2NiiCw 00, 1, 1,....,, TiiiywiN w x 其中0.1C 。 线性分类面,C 较小, 正则较大,||w||较小,Margin 较大, 支持向量较多(c) (2)、211min, s.t.2NiiCw 00, 1, 1,....,, TiiiywiN w x 其中1C  。 线性分类面,C 较大, 正则较小,||w||较大,Margin 较小 支持向量的数目少(b) (3)、1111max,2NNNiijijijiijyykx x 1s.t. 0, 1,....,, 0NiiiiC iNy 其中 2,TTkx xx xx x。 二次多项式核函数,决策边界为二次曲线 (d) (4)、1111max,2NNNiijijijiijyykx x 1s...

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
3、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。

碎片内容

机器学习SVM习题集

确认删除?
VIP
微信客服
  • 扫码咨询
会员Q群
  • 会员专属群点击这里加入QQ群
客服邮箱
回到顶部