一、单选题1、梯度消失和梯度爆炸不会导致下面哪种情况?A・梯度爆炸使网络训练时代价函数震荡,不利于收敛B•梯度消失会导致网络训练变慢C•梯度爆炸会加快网络训练,更易达到最优解D・梯度消失使网络性能不佳,分类准确度低正确答案:C2、以下哪个不是 AlexNet 的创新点?A. dropoutB•共享权重C•双 GPU 训练D.Relu 激活函数和重叠池化正确答案:B3、AlexNet 使用 ReLU 激活函数的好处不包括以下哪个方面?A. 开销小、计算快B. 梯度为 0 时神经元难以正常工作C. 提高 l 网络训练速度D. 缓解了梯度消失问题正确答案:B4、在池化中,当步长小于卷积核的大小时会称为重叠池化。与非重叠池化相比,下面哪个不是重叠池化的优点?A•损失信息少B•减少计算量C・获得的图像特更丰富D.提高卷积神经网络的正确率正确答案:B5、有关 VGG 网络的说法,以下哪个说法是错误的?A 多个 3X3 小卷积的级联效果与 5X5 和 7X7 的大卷积核功能相仿B•卷积层与池化层是一一配对的C. 使用了 dropout 减少过拟合D•使用不同数量的卷积核拼成模块,同一模块特征图的尺寸不变。正确答案:B6、VGG 对图像的分类准确度高于 AlexNet 的原因可能不是下面的哪一项?A•训练次数多B•更多的隐层(深度大)C•多个卷积层组成的模块D. 较小的卷积核正确答案:A7、以下卷积神经网络优化的方法正确的是哪个?A•激活函数尽量选择 Sigmoid 等函数,提高网络的非线性拟合能力B.增加池化层的个数可以提高网络训练参数,但降低了网络性能C.mini-batch 的 batch 值越大越好D•卷积层使用卷积+ReLU+batchnormalization 的结构正确答案:B8 对于 GoogLeNet 网络,以下哪个说法是错误的?A•通过线性堆叠各种 Inception 模块,在不明显增加网络课训练参数的情况下,提升网络的性能B.为适应不同大学的图形特征的获取,采用了多种大小的卷积核C•网络的宽度和深度都得到了加强,特征获得更充分D.GoogLeNetL 的两个辅助分类器的主要目的是增加分类子模型,提高分类准确度正确答案:D9、ResNet 中引入 shortcut 的功能不包括以下哪一个?A. 减少了计算量B. 改善了网络的特征获取能力C. ResNet 的梯度通过 shortcut 回到更早的层,缓解了网络因为深度增大导致的梯度消失D•引出了残差模块,简化了学习正确答案:A10、ResNet 的特点不包括以下哪一点?A.减少深层网络的梯度消失问题B•特征的重用C•模型参数明显增加D・增强特征的获取能...