一、单选题1、关于深度学习的说法正确的是哪个?A・批规范化(batchnormalization)是在不引入新参数的情况下保证每一层网络的输入具有相同的分布B. 与 Sigmoid 函数相比,Relu 较不容易使网络产生梯度消失C. 梯度下降法实现简单,当目标函数是凸函数时,可基于二阶收敛快速到达目标值D•用 Sigmoid 激活函数时,如果权重初始化较大或较小时,容易出现梯度饱和梯度消失,可选用 Tanh 函数改进正确答案:B2、下面关于池化的描述中,错误的是哪个?A•池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化B•在人脸识别中采用较多池化的原因是为了获得人脸部的高层特征C. 池化在 CNN 中可以减少较多的计算量,加快模型训练D. 池化方法可以自定义正确答案:A3、下面关于 CNN 的描述中,错误的说法是哪个?A. 局部感知使网络可以提取数据的局部特征,而权值共享大大降低了网络的训练难度B•卷积核一般是有厚度的,即通道(channel),通道数量越多,获得的特征图(Featuremap)就越多C•卷积是指对图像的窗口数据和滤波矩阵做内积的操作,在训练过程中滤波矩阵的大小和值不变D.SAME 填充(padding)—般是向图像边缘添加 0 值正确答案:C4、下面关于深度学习网络结构的描述,正确的说法是哪个?A. 在不同的网络结构中,层数与神经元数量正相关,层数越多,神经元数量—定越多B. 网络结构的层次越深,其学习的特征越多,10 层的结构要优于 5 层的C•深层网络结构中,学习到的特征一般与神经元的参数量有关,也与样本的特征多寡相关D•网络的层次越深,其训练时间越久,5 层的网络要比 4 层的训练时间更长正确答案:C5、假设输入是一个 300x300 的彩色(RGB)图像,使用全链接神经网络。如果第一个隐藏层有 100 个神经元,那么这个隐藏层一共有多少个参数(包括偏置参数)?A. 27,000,001B. 9,000,100C. 27,000,100D. 9,000,001正确答案:C6、假设输入是一张 300x300 彩色图像,第一个隐藏层使用了 100个 5*5 卷积核做卷积操作,这个隐藏层有多少个参数(包括偏置参数)?A. 7601B. 7600C. 7500D. 2501正确答案:B7、有一个 44x44x16 的输入,并使用大小为 5x5 的 32 个卷积核进行卷积,步长为 1,无填充(nopadding),输出是多少?A. 39*39*32B. 40*40*32C. 44*44*16D. 29*29*32正确答案:B8 对于 65x65x6 的输入特征图,用 32 个 5*5 的卷积核(过滤器)进行卷积,步幅为 2,pad...