电脑桌面
添加小米粒文库到电脑桌面
安装后可以在桌面快捷访问

机器学习试卷——中南大学

机器学习试卷——中南大学_第1页
1/2
机器学习试卷——中南大学_第2页
2/2
一、推断题(1)极大似然估量是无偏估量且在所有的无偏估量中方差最小,所以极大似然估量的风险最小.(2)回归函数 A 和 B,假如 A 比 B 更简单,则 A 几乎一定会比 B 在测试集上表现更好。(3)全局线性回归需要利用全部样本点来预测新输入的对应输出值,而局部线性回归只需利用查询点附近的样原来预测输出值。所以全局线性回归比局部线性回归计算代价更高.(4)Boosting 的一个优点是不会过拟合。(5)在回归分析中,最佳子集选择可以做特征选择,当特征数目较多时计算量大;岭回归和 Lasso 模型计算量小,且 Lasso 也可以实现特征选择.(6)梯度下降有时会陷于局部微小值,但 EM 算法不会。(7)支持向量机是判别模型。T(8)ICA 方法对于高斯分布的数据也有效.F(9)回归问题属于非监督学习的一种方法。F(10)聚类算法中不需要给出标签 y.T二、考虑一个二分类器问题(Y 为 1 或 0),每个训练样本 X 有两个特征X1、X2(0 或 1)。给出 P(Y=0)=P(Y=1)=0。5,条件概率如下表:分 类 器 预 测 的 结 果 错 误 的 概 率 为 期 望 错 误 率 ,Y 是 样 本 类 别 的 实 际 值 ,Y'(X1,X2)为样本类别的预测值,那么期望错误率为:(1)给出 X1,X2 的所有可能值,使用贝叶斯分类器预测结果,填写下表:X1X2P(X1,X2,Y=0)P(X1,X2,Y=1)Y’ ( X1 , X2)00011011(2)计算给定特征(X1,X2)预测 Y 的期望错误率,假设贝叶斯分类器从无限的训练样本中学习所得。(3)下面哪个有更小的期望错误率?a、仅仅给出 X1,采纳贝叶斯分类器预测 Y。b、仅仅给出 X2,采纳贝叶斯分类器预测 Y。(4)给 出 一 个 新 的 特 征 X3 , X3 的 与 X2 保 持 完 全 相 同 , 现 在 计 算 给 定(X1,X2,X3)采纳贝叶斯分类器预测 Y 的期望错误率,假设分类器从无限的训练数据中学习所得。(5)使用贝叶斯分类器会产生什么问题,为什么?三、交叉验证1、4。 给定如下数据集,其中为输入变量,为输出变量.假设考虑采纳 k—NN 算法对对应的进行预测,其中距离度量采纳不加权的欧氏距离。(12 分)(1)算法 1-NN 的训练误差的是多少?(用分类错误的样本数目表示即可,下同)(2)算法 3-NN 的训练误差是多少?(3)算法 1—NN 的 LOOCV(留一交叉验证)估量误差是多少? (4)算法 3—NN 的 LOOCV(留一交叉验证)估量误差是多少?四、用最大似然估量的方法估量高斯分布的均值和方差,并指出其局限性。五、随着信息化的进展,大数据的时代已经到来。海量的文本、图像、视频数据存在于互联网上,请结合自己的科研背景和兴趣,探讨机器学习方法如何在大数据分析、处理中应用.(20 分)

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
3、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。

碎片内容

机器学习试卷——中南大学

确认删除?
VIP
微信客服
  • 扫码咨询
会员Q群
  • 会员专属群点击这里加入QQ群
客服邮箱
回到顶部