电脑桌面
添加小米粒文库到电脑桌面
安装后可以在桌面快捷访问

典型卷积神经网络算法单元测试与答案

典型卷积神经网络算法单元测试与答案_第1页
典型卷积神经网络算法单元测试与答案_第2页
典型卷积神经网络算法单元测试与答案_第3页
一、单选题1、梯度消失和梯度爆炸不会导致下面哪种情况?A・梯度爆炸使网络训练时代价函数震荡,不利于收敛B•梯度消失会导致网络训练变慢C•梯度爆炸会加快网络训练,更易达到最优解D・梯度消失使网络性能不佳,分类准确度低正确答案:C2、以下哪个不是 AlexNet 的创新点?A. dropoutB•共享权重C•双 GPU 训练D.Relu 激活函数和重叠池化正确答案:B3、AlexNet 使用 ReLU 激活函数的好处不包括以下哪个方面?A. 开销小、计算快B. 梯度为 0 时神经元难以正常工作C. 提高 l 网络训练速度D. 缓解了梯度消失问题正确答案:B4、在池化中,当步长小于卷积核的大小时会称为重叠池化。与非重叠池化相比,下面哪个不是重叠池化的优点?A•损失信息少B•减少计算量C・获得的图像特更丰富D.提高卷积神经网络的正确率正确答案:B5、有关 VGG 网络的说法,以下哪个说法是错误的?A 多个 3X3 小卷积的级联效果与 5X5 和 7X7 的大卷积核功能相仿B•卷积层与池化层是一一配对的C. 使用了 dropout 减少过拟合D•使用不同数量的卷积核拼成模块,同一模块特征图的尺寸不变。正确答案:B6、VGG 对图像的分类准确度高于 AlexNet 的原因可能不是下面的哪一项?A•训练次数多B•更多的隐层(深度大)C•多个卷积层组成的模块D. 较小的卷积核正确答案:A7、以下卷积神经网络优化的方法正确的是哪个?A•激活函数尽量选择 Sigmoid 等函数,提高网络的非线性拟合能力B.增加池化层的个数可以提高网络训练参数,但降低了网络性能C.mini-batch 的 batch 值越大越好D•卷积层使用卷积+ReLU+batchnormalization 的结构正确答案:B8 对于 GoogLeNet 网络,以下哪个说法是错误的?A•通过线性堆叠各种 Inception 模块,在不明显增加网络课训练参数的情况下,提升网络的性能B.为适应不同大学的图形特征的获取,采用了多种大小的卷积核C•网络的宽度和深度都得到了加强,特征获得更充分D.GoogLeNetL 的两个辅助分类器的主要目的是增加分类子模型,提高分类准确度正确答案:D9、ResNet 中引入 shortcut 的功能不包括以下哪一个?A. 减少了计算量B. 改善了网络的特征获取能力C. ResNet 的梯度通过 shortcut 回到更早的层,缓解了网络因为深度增大导致的梯度消失D•引出了残差模块,简化了学习正确答案:A10、ResNet 的特点不包括以下哪一点?A.减少深层网络的梯度消失问题B•特征的重用C•模型参数明显增加D・增强特征的获取能...

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
3、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。

碎片内容

wxg+ 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

确认删除?
VIP
微信客服
  • 扫码咨询
会员Q群
  • 会员专属群点击这里加入QQ群
客服邮箱
回到顶部