一、单选题1、关于深度学习的说法正确的是哪个
A・批规范化(batchnormalization)是在不引入新参数的情况下保证每一层网络的输入具有相同的分布B
与 Sigmoid 函数相比,Relu 较不容易使网络产生梯度消失C
梯度下降法实现简单,当目标函数是凸函数时,可基于二阶收敛快速到达目标值D•用 Sigmoid 激活函数时,如果权重初始化较大或较小时,容易出现梯度饱和梯度消失,可选用 Tanh 函数改进正确答案:B2、下面关于池化的描述中,错误的是哪个
A•池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化B•在人脸识别中采用较多池化的原因是为了获得人脸部的高层特征C
池化在 CNN 中可以减少较多的计算量,加快模型训练D
池化方法可以自定义正确答案:A3、下面关于 CNN 的描述中,错误的说法是哪个
局部感知使网络可以提取数据的局部特征,而权值共享大大降低了网络的训练难度B•卷积核一般是有厚度的,即通道(channel),通道数量越多,获得的特征图(Featuremap)就越多C•卷积是指对图像的窗口数据和滤波矩阵做内积的操作,在训练过程中滤波矩阵的大小和值不变D
SAME 填充(padding)—般是向图像边缘添加 0 值正确答案:C4、下面关于深度学习网络结构的描述,正确的说法是哪个
在不同的网络结构中,层数与神经元数量正相关,层数越多,神经元数量—定越多B
网络结构的层次越深,其学习的特征越多,10 层的结构要优于 5 层的C•深层网络结构中,学习到的特征一般与神经元的参数量有关,也与样本的特征多寡相关D•网络的层次越深,其训练时间越久,5 层的网络要比 4 层的训练时间更长正确答案:C5、假设输入是一个 300x300 的彩色(RGB)图像,使用全链接神经网络
如果第一个隐藏层有 100 个神经元,那么这个隐藏层一共有多