课堂互动
隐藏答案 | 返回首页 作者:欧新宇(Xinyu OU)
当前版本:Release v2.0
最后更新:2024-06-10
1. 深度神经网络在处理图像时,由于参数数量庞大,可能导致计算资源不足的问题。( )
答案及解析:
深度神经网络在处理图像时,尤其是当输入图像的分辨率较高时,如果使用全连接层(即多层感知机,MLP)来处理,那么参数的数量会迅速增加,这会导致计算资源的需求急剧上升,甚至超出一般计算机的承受能力。
2. 以下哪些网络模型与卷积神经网络的发展密切相关?
A. LeNet-5
B. AlexNet
C. VGGNet
D. RNN
答案及解析:A
3. 卷积神经网络中的全连接层主要用于提取图像的特征。( )
答案及解析:
在卷积神经网络中,卷积层和池化层主要用于提取图像的特征,而全连接层则用于对这些特征进行分类。全连接层可以将卷积层和池化层提取出的特征进行全局整合,并输出最终的分类结果。
4. LeNet是第一个成功应用卷积神经网络解决大规模图像识别问题的模型。( )
答案及解析:
LeNet是第一个成功的卷积神经网络,被应用于数字识别。第一个成功解决大规模图像识别的模型是AlexNet。该模型是由Alex Krizhevsky等人于2012年提出的深度卷积神经网络模型,它在当年的ImageNet图像分类竞赛中取得了冠军,并大幅度刷新了之前的记录。AlexNet的成功证明了卷积神经网络在图像识别领域的强大能力,并推动了深度学习领域的快速发展。
5. 以下哪个结构是卷积神经网络CNN的最主要的结构组合?
A. 全连接层-激活层-池化层
B. 卷积层-激活层-池化层
C. 池化层-激活层
D. 卷积层-激活层-全连接层
答案及解析:B
基本的卷积神经网络由卷积层(convolutional layer)、池化层(pooling layer)和全连接层(full connected layer)构成,在卷积层后通常都会紧跟一个激活函数。CNN使用 卷积层-ReLU层-池化层 的组合替代了 全连接层-ReLU 的组合,这种组合带来了CNN的三个重要特性:权重共享、局部感知和子采样。
6. 卷积神经网络中的激活函数层是可选的,不影响网络的性能。( )
答案及解析:
激活函数层在卷积神经网络中是不可或缺的。它们通过引入非线性来提高网络的表示能力。没有激活函数,神经网络将只能学习线性函数,这极大地限制了其性能。
7.(多选)在卷积神经网络中,卷积核的主要作用包括( )。
A. 提取图像特征
B. 减小数据维度
C. 增大数据维度
D. 保持数据的空间结构
答案及解析:AD
选项A正确,卷积核在卷积层中用于提取输入图像的不同特征。
选项B错误,生成特征图的尺度取决于卷积核的步长和填充,卷积操作可能会减小数据的空间维度(即高度和宽度),同时也可以增加或减少通道数(即特征图的数量)。
选项C错误,如上所述,卷积操作通常不会增大数据的空间维度。
选项D正确,通过局部连接和卷积操作,卷积层能够保持输入数据的空间结构。
8. 在卷积和池化的应用下,卷积神经网络的特征图的尺度会随着层次的加深而逐渐变小。若想保持特征图的尺度始终不变,可以采用以下哪种技术?
A. 设置步长参数Stride
B. 设置填充参数Padding
C. 调整池化的类型(max|avg)
D. 调整卷积核的尺度filter_size
答案及解析:B
卷积神经网络的特征图尺度会随着层次的加深而逐渐变小,为了保持特征图的尺度不变,有两种办法可以实现。第一种方法是设置填充参数Padding,其值 P=(F-1)/2, F为卷积核的尺度。第二种方法是设置洞参数dilation,该方法被广泛应用在图像分割中。
严格说调整卷积核的尺度Filter_size也可以确保尺度不变,但是也只有1×1一种卷积核是特例,所以该选项并不是一种比较好的方法。
9. 设特征图的尺度为48×48×32,若卷积核的尺度为1×1×32,步长stride=1,填充padding=0,则该层需要进行()次卷积运算。
A. 32
B. 48×48×32=73728
C. 48×48=2304
D. 1×1=1
答案及解析:C
1×1卷积和普通卷积具有相同的原理,在一确定层中,卷积运算的次数=[(卷积特征图的尺度N-卷积核尺度F)/步长S+1],每次卷积预算都是一个32维的点乘运算。(1×1卷积一般不使用Padding)
1. 传统深度前馈神经网络(DNN或MLP)无法被广泛应用,其最主要的原因是:( )
A. 神经网络节点过多,导致计算复杂性太高
B. 由于参数过多,容易导致欠拟合问题
C. 无法直接处理高维度的样本,例如基于时间序列音频数据
D. 在处理大数据时,需要人为提取原始数据的特征作为输入,这个尺度很难掌握。
答案及解析:A
以上选项均是传统深度前馈神经网络的缺陷,但其无法被广泛使用的根本原因还是参数过多,导致计算复杂性太高,无法使用现有的计算机完成计算。
2. 若存在一幅 300×400 的彩色图像,且其后的隐层神经元数量与输入层相同,那么,在输入层和第一层之间的参数个数为:( )。
A. 300 × 400 = 120000
B. 300 × 400 × 3 = 360000
C. 300 × 400 × 300 × 400 = 1.44 ×
D. 300 × 400 × 3 × 300 × 400 × 3 = 1.296 ×
答案及解析:D
在前馈神经网络中,两层之间的权重参数数量为前后两层所有神经元两两相连的数量。在本例中第一层包含的神经元为图像的长×宽×色彩通道数,所以两层之间的参数个数为:
3.(多选)以下属于卷积神经网络的典型特性的包括( )。
A. 平移不变性
B. 光照不变性
C. 色彩不变性
D. 尺度不变性
答案及解析:AD
4. 以下图像的变换,哪些变换可以依赖于尺度不变性实现对图像样本的识别()。
A. 调整图像的色彩,使其主要对象从红色变为蓝色
B. 将原始图像进行水平反转
C. 将原始图像旋转120度
D. 直接对图像进行大小缩放
答案及解析:D
尺度不变性指的是对图像进行大小缩放后仍然能够进行识别,这主要得益于卷积核的局部识别能力。通过使用卷积核不断对原始图像进行扫描,从而实现对样本局部模式的学习。
5. 为了能实现更好的特征表达能力,除了卷积和池化,卷积神经网络还需要()。
A. 更宽的网络支持
B. 更深的网络
C. 更多的神经元
D. 更大的卷积核
答案及解析:B
1. 以下模型更适合于处理时间序列的一个是:( )。
A. 多层感知机
B. 支持向量机
C. 卷积神经网络
D. 贝叶斯模型
答案及解析:C
在处理时间序列数据时,传统机器学习算法包括支持向量机、贝叶斯模型、随机森林等都需要事先对原始数据进行特征提取然后才能进行模型的学习,这种方法相对来说效率较低,性能也较差。而多层感知机对于直接输入网络的数据也需要对数据进行重新排列组合,这导致样本的很多内部关联性被打破,也同样无法获得较好的性能。卷积神经网络将原本以原始形态进行输入,既不存在传统机器学习特征提取的多种信息损失,也不存在多层感知机向量输入的空间信息损失,因此更适合于具有结构化特性的数据,例如图像、音频和视频。
2. (多选)感知机是早期最成功的神经网络,但也存在一些问题,主要包括哪两个?
A. 处理不了线性不可分问题
B. 处理不了线性可分问题
C. 输入特征需要人工选择
D. 权重特征无法自动更新
答案及解析:AC
感知机的自动化令人激动,但是1969年,Minksy等人关于感知机的“能”与“不能”做了细致的分析,并悲观地论断了感知机的普适难题,这个难题致使神经网络的研究陷入了寒冬。感知机的问题主要包括以下两点:
1). 处理不了线性不可分。这基本上是所有浅层模型都面临的问题;
2). 输入特征的人工选择。这是传统机器学习的通病。
3. 感受野第一次被提出是在下列哪个时期?
A. 1962年, Hubel和Wiesel对猫大脑视觉系统进行了研究
B. 1975年,日本科学家福岛邦彦提出认知机
C. 1989年,Yann Lecun提出用于手写字体识别的卷积神经网络LeNet-5
D. 2012年,Jeffrey Hinton和Alex Krizhvsky提出卷积神经网络AlexNet
答案及解析:A
感受野的提出,最早是在Hubel和Wiesel对猫大脑中视觉系统进行研究时,通过记录神经元的激活模式提出了感受野的概念。卷积神经网络的局部感知就来源于对感受野的理解。
4. (多选)以下应用可以用卷积神经网络来实现的有哪些?
A. 为一幅自然风景画添加梵高的抽象艺术模式
B. 为视频和图像添加字幕信息
C. 从海量的卫星图片中寻找鲸鱼经常出没的位置
D. 在自动驾驶中为汽车找到没有障碍物的道路
E. 从10万张狗的图片中找到混入其中的1幅猫的图片
答案及解析:ABCDE
卷积神经网络被广泛应用在计算机视觉的各种任务中,包括图像分类、识别、检测、检索与分割等。
5. 对于图像分类问题,()模型预期表现最好?
A. 感知机或多层感知机
B. 支持向量机
C. 卷积神经网络
D. 循环神经网络
答案及解析:C
卷积神经网络(CNN), 是近年来最流行的深度模型之一,其最主要的原因是它在被广泛引用到计算机视觉任务时,具有较好的表现,甚至于在很多方面超过了人的能力。
1. 在卷积神经网络中,激活层的主要功能是()。
A. 增加模型的非线性特性,从而提高模型的拟合能力,
B. 提高模型的训练速度
C. 增强模型的泛化能力
D. 以上都正确
答案及解析:A
在卷积神经网络中,所有的卷积运算和池化运算都是线性的,它们的叠加也依然是线性的,激活函数的增加打破了这种连续的线性叠加,使得模型可以去适应非常复杂的数据,从而提高模型的拟合能力。
2. (多选)在卷积神经网络中,我们依然会在网络的最后部分增加1-2个全连接层,其主要目的是()。
A. 进一步减少参数的数量
B. 打破卷积特征的空间限制,从而减少位置固化对分类带来的定势思维的影响。
C. 提高模型对全局信息的获取能力,使所有的元素对最后的分类都具有贡献。
D. 加速模型的训练速度
答案及解析:BC
全连接层相比卷积层会大大增加参数的数量,从而提高系统资源的消耗,也会降低模型的训练。但是仅仅只使用卷积和池化,会使模型对全局信息的掌控出现一定的缺失,还会让模型对空间位置过于依赖,导致模型对物体所处的空间位置产生过度拟合问题。
3. 在卷积神经网络中,通常在每个卷积层背后都会紧跟一个()。
A. 池化层
B. 全连连接层
C. 激活函数
D. Softmax分类层
答案及解析:C
卷积神经网络的主体结构由由卷积层(convolutional layer)、池化层(pooling layer)和全连接层(full connected layer)构成,在卷积层后通常都会紧跟一个激活函数。激活函数主要用来增加网络的非线性特性,从而提高模型的拟合能力。
4. 输入层作为神经网络的起点,通常使用()的形式进行输入。
A. 元组
B. 列表
C. 张量
D. 关系型数据
答案及解析:C
输入层可以理解为神经网络的起点,它按照样本的特性直接转换成张量形式进行输入,这个张量的格式通常为 [N,H,W,C](批大小Batch_Size, 高度Height, 宽度Width, 色彩通道Channel)。
5. 为了方便获得分类结果,经常会在CNN的末尾添加一个全连接层,并且让全连接层的神经元数量等于该任务的类别数。( )
答案及解析:
一般来说,对于分类任务最终的输出都是样本针对每一个类别的概率值,其中概率最大的一个类别为最终的分类结果。基于这样的目的,以向量形式存在的全连接层非常有利于这种格式得分的输出。因此,一般基于卷积神经网络的最后一层都会有一个和分类类别数一样多的神经元所构成的全连接层。
6. 卷积神经网络中的全连接层在结构上是完全连接的,即前一层的每个神经元都与后一层的每个神经元相连。( )
答案及解析:
全连接层在卷积神经网络中扮演着“分类器”的角色,它将学习到的“分布式特征表示”映射到样本的标记空间。全连接层中的每个神经元都与前一层中的所有神经元相连,以实现特征的综合和分类。
1. (多选)卷积神经网络依靠卷积运算来生成特征图,它使卷积神经网络具有()的特性。
A. 局部感知
B. 对象定位
C. 权重共享
D. 前景对象显著性
答案及解析:AC
卷积层(Convolutional Layer)是卷积网络的核心部分,它通过卷积运算生成特征图。它具有权重共享、局部感知等特性,并实现了逐层抽象的功能。
2. (多选)以下对于局部感知描述正确的项包括()。
A. 卷积操作只关注局部像素,但神经元与采样特征图所有的像素均相连。
B. 卷积操作只关注局部像素,神经元只与采样特征图局部区域的像素相连。
C. 局部连接保证了卷积核对局部特征的最强响应
D. 在同一层中,应用于不同特征图的卷积核的参数固定不变
E. 在同一层中,应用于不同特征图的卷积核具有不同的参数
答案及解析:BCE
3. (多选)以下对于权重共享描述正确的项包括()。
A. 权重共享只发生于同一通道,不同通道之间的权重不共享。
B. 权重共享发生于所有通道,不同通道之间的权重也是相同的。
C. 卷积核在划过整个图像时,每次划动都调整卷积核内部的参数。
D. 卷积核在划过整个图像时,每次划动卷积核的参数都是固定不变的。
答案及解析:AD
权值共享指卷积核在划过整个图像时,卷积核的参数是固定不变的。这种共享极大地减少了参数。但权重共享只发生于同一通道,不同通道之间的权重不共享。
偏置项b对同一层中所有通道的神经元都是共享。
4. 与全连接层不同,卷积层保持了样本的空间结构,在进行输入的时候不需要将样本转换为向量形式。( )
答案及解析:
为了保持样本的空间结构,卷积层采用图像原始的形态进行输入,不需要将其转换为向量形式。
5. 若某层及其下一层的特征图维度均为 60×60×10,卷积核的维度为3×3×10,则该层的参数个数为()(忽略偏置项)。
A. 36000
B. 90
C. 36000×90
D. 36000×36000
E. 90×90
答案及解析:B
卷积层大大减少了神经网络的参数个数,其数量等于卷积核的神经元个数×卷积核的深度。
7. 在卷积神经网络的低层中,由于卷积核的尺度远小于输入样本(例如输入图像维度为1024×768×3,而卷积核维度为5×5×3,因此无法完全覆盖整个输入样本,这将会导致对样本特征提取时的信息损失。( )
答案及解析:
在卷积层中,卷积核会从左到右,从上至进行Z字型的滑动,并遍历每一个局部位置,因此并不会因为输入样本和卷积核尺度的差异导致信息损失。
1. 一般来说,一个卷积层只能学到一种特征。所以,如果想要学习图像多种不同的模式,就需要多个卷积层才能实现。( )
答案及解析:
在卷积神经网络中,模型所学习特征的数量与卷积层的深度没有直接的关系,而是与某一层卷积核的数量相关。有多少个卷积核就代表该层可以学习到多少种模式。而卷积核的深度一般与特征的类型相关,越靠近输入特征越局部;越靠近输出特征越全局。
2. 在卷积神经网络中,对于第L层,若特征图的数量为n,则该层上的卷积核的个数为:()。
A. L
B. n
C.
D. 无法确定
答案及解析:D
在卷积神经网络中,卷积核的深度与该层的特征图相同,在进行特征提取的时候,两个信号按照对应层进行点乘运算。但卷积核的个数是手工进行指定,与本层的所有参数值都无关。
3. (多选)卷积和池化运算使得特征图的尺度逐渐变小,这意味着()。
A. 层数越高,学到的特征就越具有全局化,高层语言越明显
B. 层数越高,学到的特征就越局部化,局部特征越明显
C. 层数越低,学到的特征就越具有全局化,高层语言越明显
D. 层数越低,学到的特征就越局部化,局部特征越明显
答案及解析:AD
在卷积神经网络中,低层的特征图尺度较大,因此卷积核无法覆盖整个样本,这使得卷积核无法提取到更具有全局化的特征,但因为更聚焦局部区域,因此对于局部特征的提取是比较优异的;相似的,高层的特征图尺度较小,同样尺度的卷积核所覆盖的样本范围更大,因此可以获得比较好的全局化特征,从而获得更具高层语义的信息,相对而言对于局部特征的提取就变弱了。为了较好地同时提取样本的全局特征和局部特征,组合不同层次的特征图是一个比较理想的方法。
4. (多选)卷积核的个数等于()。
A. 本层特征图的深度
B. 下一层特征图的深度
C. 下一层卷积层卷积核的深度
D. 下一层卷积核的个数
答案及解析:BC
卷积核的个数 = 下一层数据的深度 = 下一层卷积层卷积核的深度
卷积核的个数 = 提取特征的数量
超参数的个数由卷积核的尺度决定
5. (多选)卷积层的计算复杂度与下列哪些超参数有关?
A. 卷积特征图的高度
B. 卷积核的高度
C. 卷积核的深度
D. 卷积核的个数
答案及解析:ABCD
计算复杂度是指单个样本在模型中完成一次前向传播所发生的浮点运算次数,可以用公式 进行描述。
1. 设输入图像的维度为32×32×3,若存在1个尺度为5×5的卷积核,其步长stride=2,则卷积运算之后的特征图的深度为()。
A. 1
B. 3
C. 5
D. 32
答案及解析:A
输出特征图的深度等于上一层卷积核的个数。
2. 设特征图的尺度为224×224,若卷积核的尺度为5×5,步长stride=3,则卷积运算之后的特征图尺度为()。
A. 224
B. 74
C. 219
D. 73
答案及解析:B
输出尺度为: (特征图尺度N - 卷积核尺度F)/步长stride + 1 = (224-5)/3+1=74
3. 设特征图的尺度为227×227×10,若卷积核的尺度为3×3×10,步长stride=2,填充padding=1,则卷积运算之后的特征图尺度为()。
A. 227×227×10
B. 224×224×10
C. 114×114×10
D. 113×113×10
答案及解析:C
输出高宽尺度为: (特征图尺度N + 2填充尺度 - 卷积核尺度F)/步长stride + 1 = (227+2×1-3)/2+1=114,其深度尺度保持不变,因此最终尺度为114×114×10
4. 设特征图的尺度为32×32×10,若卷积核的尺度为4×4×10,步长stride=2,填充padding=2,则该层的参数个数是多少(忽略偏置项)。
A. 32×32×10×4×4×10=1638400
B. 4×4×10=160
C. (32+2×2-4)/2+1=17
D. ((4+2)×(4+2)+2×2)×10=400
答案及解析:B
在进行参数计算的时候,只需要考虑卷积核的维度,而不用考虑其移动的步长和填充。因此此处参数的个数为:卷积核的宽度×卷积核的高度×卷积核的深度=4×4×10=160。卷积操作后,特征图的维度为: (特征图尺度N + 2填充尺度 - 卷积核尺度F)/步长stride + 1 = (32+2×2-4)/2+1=17
5.(多选)下列有关卷积层说法正确的是()。
A. 卷积核必须是n×n的形式,即长宽相同
B. 卷积后得到的特征图可以和原图尺寸一致
C. 1×1卷积核常用来做降维,无法对原图提取特征
D. 在卷积层中可以加入激活函数
答案及解析:BD
A选项错误,卷积核可以是任意形态,只不过为了方便计算,习惯性使用正方形;当使用padding进行外围填充的时候,可以使原图和特征图具有相同的尺度;1×1卷积可以实现通道数量的减低,即降维,但同样也具有普通卷积层相同的功能——特征提取;卷积层+激活层是最标准的结构,并用来做特征提取。
6. 假设将填充 和 同时增加1倍,则最终的计算时间复杂度会(),内存占用量会()。
A. 不变 不变
B. 不变 增加
C. 增加 不变
D. 增加 增加
答案及解析:D
当填充增加时,卷积移动的步数将增加,同时生成的特征图尺度也将变大。因此,最终会导致计算时间复杂度的增加和内存占用量的增加。
1. 由于灰度图像只有一个颜色通道,因此在使用卷积神经网络对灰度图进行特征提取和建模时,只能使用一个卷积核。( )
答案及解析:
卷积核的个数与输入样本的维度没有直接关系,对于灰度图无论是输入端还是中间的隐层均可以设置多个卷积核,每个卷积核都会提取一种与其他卷积核不同的特征模式。
2. 灰度图因为只有一个颜色通道,因此一般使用三阶张量进行输入,即(批大小Batch_Size, 高度Height, 宽度Width)。( )
答案及解析:
灰度图虽然只有一个颜色通道,但是依然是使用四维张量进行输入,此时的颜色通道值为1,即[N,H,W,1]。
3. 试计算如下特征图和卷积核的计算结果。
A. 2
B. [[0,0,1],[0,0,0],[0,0,1]]
C. 1
D. [[0,1,1],[0,0,1],[0,0,1]]
答案及解析:A
卷积计算的原理是对应位置的元素积的加权和,即:
4. 若对一个分辨率为100×100的RGB图像使用卷积神经网络(卷积核的高宽为3×3)进行特征提取,则第一个卷积层的卷积核的个数是多少?
A. 9
B. 10000
C. 3
D. 无法确定
答案及解析:D
某一层的卷积核的个数由程序员根据经验确定,其个数与下一层特征图的深度相同,同时也与下一层的卷积核的深度相同。
5. 假设存在一个5×5×4的特征图,如果我们使用一个3×3×4的卷积核对这个特征图进行特征提取(假设padding=0和stride=1),则最终将得到的特征图形态为()。
A. 3×3×4
B. 3×3×1
C. 5×5×4
D. 5×5×1
答案及解析:B
在不进行特别指定时,我们假设padding=0和stride=1。此时,卷积核对卷积层进行特征提取的时候,卷积核的深度应该和特征图是一致的,但每个卷积核的输出都是一个深度维度为1的2D矩阵。换句话说,如果想要得到深度为4的新卷积层,必须要有4个卷积核才能够实现。如果padding=0,且stride=1,卷积核的高宽尺度为3×3的话,输出卷积层的尺度将减少2,即。
6. 假设将输入通道数 和输出通道数 分别增加1倍,则最终的计算时间复杂度会()。
A. 保持不变
B. 变为原来的2倍
C. 变为原来的4倍
D. 变为原来的8倍
答案及解析:C
对于卷积神经网络来说,如果特征图的尺度为 ,且卷积核的尺度为 。若步长为1,填充为0,则计算时间复杂度为:。需要注意的是,时间复杂度指的是卷积核在每个滑动位置的计算量,需要和参数的数量进行区分。
7. 假设存在两个卷积核 和 ,若不存在非线性激活函数,是否可以使用单个卷积核来实现这两个卷积核的功能?( )
答案及解析:
卷积运算是一种一次线性运算,因此当不存在激活函数等非线性函数的时候,多个线性函数是可以组合成一个线性函数的。换句话说,多个卷积核可以组合成一个卷积核使用。然而,在没有非线性激活的加入时,堆叠多个线性函数并没有太多实际的意义。
1. (多选)以下对池化层描述正确的包括()。
A. 池化层能够成倍地减少计算量
B. 增加池化层不需要增加参数
C. 池化层可以增加模型非线性特性,从而提高模型的拟合能力
D. 池化层可以为模型增加平移不变性的特性
答案及解析:AB
无论是最大池化还是均值池化,都可以显著地减少模型的尺度,从而减少模型的计算量。随着网络的加深,池化一级一级地减小了特征图的尺度,这使得卷积核可以提取到更多全局特征和轮廓特征。值得注意的是,池化始终特殊的 卷积核 它的计算规则主要包括求平均值(均值池化)和求最大值(最大池化),这两种操作都不需要额外的参数,因此池化层的增加不但不增加参数的数量还可以有效地减少参数的数量。
2. 给定一个3×3的矩阵 A=[[2,2,2],[2,2,2],[2,2,2]],若存在一个 的avg-pooling核,其步长stride=1,则经过池化后的输出结果正确的一项是()。
A. [[1,1,1],[1,1,1],[1,1,1]]
B. [[2,2],[2,2]]
C. [[1,1],[1,1]]
D. [[1]]
答案及解析:B
进行mean-pooling计算的时候,需要将pooling所覆盖范围内的所有元素进行求和再进行平均,此处(以左上角为例)=(2+2+2+2)/4=2。由于stride=1因此,mean-pooling总共扫过了4个区域,其计算结果都为2,所以最终的结果为一个2×2的矩阵,并且每个元素的值都为2.
3. 给定一个3×3的矩阵 A=[[1,2,3], [2,3,4], [3,4,5]],若存在一个 的max-pooling核,其步长stride=1,则经过池化后的输出结果正确的一项是()。
A. [[1,2,3], [2,3,4], [3,4,5]]
B. [[2,3], [3,4]]
C. [[3,4], [4,5]]
D. [[5]]
答案及解析:C
进行max-pooling计算的时候,是将pooling所覆盖范围内的所有元素求最大值作为最终的输出,此处因为pooling核心是2×2的,步长为2,所以最终会扫过4个不同的区域,分别对这4个区域求最大值,可以获得最终的结果 [[3,4],[4,5]]。选项B是使用mean-pooling获得的结果
4. 若存在一个117×117的特征图,后面紧跟一个步长为2,尺度为3×3的池化核。试求经过池化层后,特征图新的维度是多少?
A. 117
B. 114
C. 58
D. 57
答案及解析:C
根据尺度计算公式,输出层的尺度 = (输入层的尺度-池化核的尺度)/步长 + 1 = (117-3)/2+1 = 58
5. 观察下图给出的网络拓扑结构图,试计算Conv3在执行均值池化后的特征图的维度。
A. 64
B. 21
C. 2
D. 1
答案及解析: D
Conv1: 卷积后 (32-5)/1+1=28 池化后(28-2)/2+1=14
Conv2: 卷积后 (14-5)/1+1=10 池化后(10-2)/2+1=5
Conv3: 卷积后 (5-4)/1+1=2 池化后(2-2)/2+1=1
6. 池化层最主要的作用是()。
A. 压缩图像
B. 提取图像特征
C. 将多维数据一维化
D. 连接卷积层与全连接层
答案及解析:A
池化层没有训练参数,通常通过求平均值或求最大值来获得输出值,这种方法会丢失一定的局部信息。但是对于分类任务来说,这种信息损失并不影响最终的识别结果,同时还可以减少参数,实现图像尺度的压缩。
1. 对于一个卷积神经网络模型,规定它的输入为32×32的RGB,输入张量形状为[16,3,32,32], 这里16表示()。
A. batch_size
B. channel
C. height
D. epoch
答案及解析:A
在使用卷积神经网络进行图像处理时,通常使用4维张量进行样本处理。其中,16表示批次的大小,3为色彩通道,32表示高和宽。
2. MNIST是由NIST收集的来自于250个不同人的手写数字数据集,该数据集包含()个训练集图像。
A. 250
B. 10000
C. 50000
D. 60000
答案及解析:D
MNIST是著名的手写数字数据集,它包含60000张训练图像,10000张测试图像,数据集包含0-9总共10个类别的数字。
3. 在经典的LeNet-5模型中,总共包含( )个卷积层。
A. 2
B. 3
C. 5
D. 7
答案及解析:C
LeNet模型包含2个卷积层,2个池化层,2个全连接层,再加上一个输出。
4. 在LeNet5模型中,以下哪个层用于实现图像维度的降低?
A. 卷积层
B. 降采样层(池化层)
C. 全连接层
D. 高斯层
答案及解析:B
在LeNet模型中,A选项卷积层用于学习图片的空间信息,B选项池化层用于降低图像的维度,C选项全连接层来转换类别空间,D选项高斯层与Softmax函数类似,主要用于分类。
1.( )模型是卷积神经网络发展史上的重要里程碑?
A. LeNet-5
B. RNN
C. GAN
D. SVM
答案及解析:A
LeNet-5是最早的卷积神经网络之一,由Yann LeCun等人于1998年提出,用于手写数字识别任务。它奠定了卷积神经网络的基本结构和操作,包括卷积层、池化层和全连接层等,是卷积神经网络发展史上的重要里程碑。RNN(循环神经网络)主要用于处理序列数据,GAN(生成对抗网络)主要用于生成模型,SVM(支持向量机)是一种传统的机器学习算法,它们都不是卷积神经网络发展史上的重要里程碑。
2. 卷积操作可以有效地提取图像的局部特征,并获取平移等变性质。( )
答案及解析:
卷积操作是卷积神经网络中的核心操作,它可以通过在输入图像上滑动卷积核来提取图像的局部特征。由于卷积操作具有平移不变性,即输入图像中的特征无论出现在什么位置,卷积操作都能有效地提取出来。
3. 池化操作是一种下采样技术,可以减小模型的计算量,并增加平移不变性。( )
答案及解析:
池化操作是卷积神经网络中常用的下采样技术,它可以通过对输入特征图进行降采样来减小模型的计算量。同时,池化操作还可以增加模型的平移不变性,即当输入图像中的特征发生微小位移时,池化操作后的输出仍然保持不变。
4. 卷积神经网络中的卷积核参数对于所有输入位置都是共享的。( )
答案及解析:
这是卷积神经网络的一个重要特性,即权值共享。卷积核中的参数对于输入图像中的每个位置都是相同的,这意味着网络可以使用相同的参数来检测输入图像中的不同位置的相同特征。这种权值共享的方式大大减少了网络的参数数量,提高了模型的计算效率。
5. 在卷积神经网络中,( )操作有助于获取图像的尺度不变性?
A. 卷积
B. 池化
C. 激活函数
D. 反向传播
答案及解析:AB
卷积神经网络的尺度不变性是由卷积操作和池化操作共同体现的。其中,卷积操作提供了捕获不同尺度特征的能力,而池化操作则通过下采样实现了对尺度变化的鲁棒性。
6. 卷积神经网络在逐层叠加的过程中不断进行缩放变换确保了样本尺度不变性,相似的多层感知机的逐层叠加也能够实现尺度不变性。( )
答案及解析:
卷积神经网络逐层叠加的过程中,通过不断变换尺寸,实现了尺度不变性。但是其前提是其输入始终保持了原始的输入形态(即长宽比),而多层感知机虽然也实现了逐层叠加,但一开始就将样本拉成一个一维向量,这丢失了样本内在的局部关联性,因此,无法实现尺度不变性。
7. 卷积神经网络的"卷积"一词,实际上是一种数学运算方法,该方法属于()次的运算?
A. 一次
B. 二次
C. 三次
D. 高次
答案及解析:A
卷积神经网络一词表明该网络使用了卷积这种数学运算,卷积是一种特殊的线性运算。因此,卷积网络是指那些至少在网络的一层中使用卷积运算来代替一般的矩阵乘法运算的神经网络。线性运算属于一次运算。
8. 卷积神经网络具有局部连接、权重共享等特性,它已经脱离了前馈神经网络的范畴。( )
答案及解析:
卷积神经网络是一种具有局部连接、权重共享等特性的前馈神经网络。它仿造了生物的感受野(receptive field)机制,即神经元只接受其所支配的刺激区域(其所覆盖及其邻域)内的信号(而非全连接),隐藏层内的卷积核参数共享和层间连接的稀疏性使得卷积神经网络能够以较小的计算代价来量化对象特征,在计算机视觉和语音等网格型数据方面有大量应用。
9. 图像中识别物体的( )原则体现了模型准确率与目标在图像中的位置无关。
A. 局部性
B. 尺度不变性
C. 独特性
D. 平移不变性
答案及解析:D
平移不变性指的是模型对于图像中目标对象的平移(即位置变化)应该具有不变性。这意味着无论目标出现在图像的哪个位置,模型都应该能够识别它。这是卷积神经网络通过卷积和池化操作实现的一个重要特性。
10. 在卷积神经网络中,池化操作的主要作用是( )
A. 增加模型的复杂度
B. 提取图像的局部特征
C. 减小模型的计算量
D. 提高模型的泛化能力
答案及解析:C
池化操作通过减小输入的空间尺寸来减少参数数量和计算量,同时也有助于提高模型的平移不变性和鲁棒性。虽然池化操作也有助于防止过拟合和增加平移不变性,但“减小模型的计算量”是其最直接和主要的作用。
11. 以下( )不是卷积神经网络的特点?
A. 局部连接
B. 权重共享
C. 全连接
D. 层次化特征表示
答案及解析:C
虽然全连接层在卷积神经网络的最后几层中常见,用于将特征映射到输出层,但“全连接”并不是卷积神经网络独有的特点。实际上,全连接层在多种神经网络结构中都有使用。卷积神经网络的主要特点包括局部连接、权重共享和层次化特征表示。
12. 关于深度神经网络在处理图像时遇到的问题,以下哪些说法是正确的?
A. 每层的神经元个数可能会非常多
B. 全连接网络在处理图像时参数数量巨大
C. 深度神经网络无法处理图像问题
D. 深度神经网络处理图像时需要巨大的计算资源
答案及解析:ABD
13. 在图像处理中,目标的局部特性体现在哪些方面?
A. 目标对象可能出现在图像的任何位置
B. 目标的形状和大小可能不同
C. 目标的颜色可能不同
D. 目标的局部区域具有特定的模式
答案及解析:ABCD
14. 池化操作在卷积神经网络中的作用包括哪些?
A. 减小参数数量
B. 防止过拟合
C. 增加平移不变性
D. 提取图像的局部特征
答案及解析:AC
15. 以下哪些操作是卷积神经网络中常见的?
A. 卷积
B. 池化
C. 全连接
D. 反向传播
答案及解析:ABCD
16. 哪些因素使得卷积神经网络在处理图像时比全连接网络更有效?
A. 局部连接
B. 权重共享
C. 层次化特征表示
D. 激活函数
答案及解析:ABC
17. 对于非结构型的序列化数据,例如简单的二维数据,卷积神经网络并不是特别擅长。( )
答案及解析:
卷积神经网络的一个重要特性是局部共享,这主要依赖于CNN对结构化数据的建模,因此对于非结构性的序列数据,卷积神经网络并不是特别擅长。
18. 在卷积神经网络中,池化层的主要作用是增加特征图的尺寸,以便提取更多的细节信息。( )
答案及解析:
池化层在卷积神经网络中的主要作用是进行下采样,通过去掉特征图中不重要的样本,进一步减少参数数量。这不仅可以减少计算量,还有助于防止过拟合。因此,池化层的作用是减小特征图的尺寸,而不是增加。
19. 卷积神经网络中的卷积核尺寸越大,提取的特征越全局。( )
答案及解析:
较大的卷积核具有更大的感受野(receptive field),这意味着它们能够捕获更全局的特征或模式。相比之下,较小的卷积核更关注局部细节。
20. 卷积神经网络中的池化层可以减小特征图的尺寸并减少参数数量。( )
答案及解析:
卷积神经网络中的池化层(如最大池化或平均池化)通过减小特征图的尺寸来减少网络中的参数数量和计算成本。同时,它还有助于使特征图对输入数据的空间变换(如平移、旋转等)更加鲁棒。
21 卷积神经网络中,卷积层之后通常会接( )层。
A. 全连接层
B. 池化层
C. 卷积层
D. 激活函数层
答案及解析:B
在卷积神经网络中,卷积层之后通常会接一个池化层(如最大池化或平均池化),用于减小特征图的尺寸并提取更重要的特征。但应注意,在后续的很多网络设计中,连续的卷积层也是合理的。
22. 以下( )不是卷积神经网络相对于全连接网络的优势。
A. 参数数量少
B. 易于训练
C. 易于处理高维数据
D. 难以提取局部特征
答案及解析:D
卷积神经网络相对于全连接网络的优势包括参数数量少(通过稀疏交互和参数共享实现)、易于处理高维数据(特别是图像数据)以及易于提取局部特征。因此,“难以提取局部特征”不是卷积神经网络的优势。
23.(多选)在卷积神经网络中,以下哪些层是常见的?( )
A. 卷积层
B. 池化层
C. 全连接层
D. 循环层
答案及解析:ABC
循环层是循环神经网络(如LSTM或GRU)中的组件,不是卷积神经网络中的常见层,其他层都是卷积神经网络的常见层。
24. 卷积运算是卷积层的核心,它对卷积核与特征图执行(),然后将计算结果按元素进行累加。
A. 外积运算
B. 互相关运算
C. 加和运算
D. 求最大值运算
答案及解析:B
在卷积运算中,卷积核与特征图执行元素乘,然后执行累加。因此,卷积运算从本质上是卷积核向量与输入图像对应位置特征向量的内积,也即互相关运算。
25. 卷积神经网络中,卷积操作的主要特点是( )。
A. 密集交互
B. 稀疏交互
C. 权重不共享
D. 单一模式学习
答案及解析:B
卷积神经网络中的卷积操作是稀疏交互的,即每个输出神经元只与输入神经元的一小部分连接,而不是与所有输入神经元密集连接。
26. 卷积操作中,卷积核对( )特性有最强的响应?
A. 全局
B. 局部
C. 边缘
D. 色彩
答案及解析:B
每个卷积核都被设计为对输入图像中的局部特征有最强的响应,例如边缘、角点等。
27. 在卷积神经网络中,卷积核在图像上滑动并执行( )操作?
A. 加法
B. 减法
C. 点乘
D. 除法
答案及解析:C
在卷积神经网络中,卷积核在图像上滑动并与输入图像进行点乘操作,然后加上偏置项,最后通过激活函数得到输出特征图。
28. 假设一个卷积核的尺寸为5x5x3,它适用于哪种尺寸的输入图像?( )
A. 5x5x3
B. 任意尺寸
C. 至少5x5x3
D. 至少32x32x3
答案及解析:C
一个5x5x3的卷积核可以应用于至少尺寸为5x5x3的输入图像(或特征图)。但实际应用中,输入图像的大小通常会远大于卷积核的大小。
29. 在卷积神经网络中,偏置项 通常如何设置?( )
A. 对每个神经元单独设置
B. 对每个卷积核单独设置
C. 对同一层中所有通道的神经元共享
D. 对整个网络共享
答案及解析:C
在卷积神经网络中,偏置项b是对同一层中所有通道的神经元共享的,而不是对每个神经元或每个卷积核单独设置的。
30. 卷积神经网络中的参数共享是指( )。
A. 每个神经元都有独立的权重
B. 每个神经元使用相同的权重
C. 同一层的神经元使用不同的权重
D. 不同层的神经元使用相同的权重
答案及解析:B
参数共享是指卷积神经网络中的每个神经元(在卷积层中)都使用相同的权重(即卷积核)。这有助于减少网络中的参数数量。
31. 在卷积神经网络中,激活特征图是通过( )生成的。
A. 全连接层
B. 卷积操作
C. 池化操作
D. ReLU函数
答案及解析:B
激活特征图是通过卷积操作生成的,即卷积核在输入图像上滑动并与输入图像进行点乘操作,然后加上偏置项,最后通过激活函数得到输出特征图。
32. 假设一个卷积层有6个5x5x3的卷积核,那么该层的输出深度是( )。
A. 3
B. 5
C. 6
D. 15
答案及解析:C
输出深度(即特征图的数量)与卷积核的数量相同。因此,如果卷积层有6个5x5x3的卷积核,那么该层的输出深度就是6。
33.(多选)卷积神经网络中,卷积层的主要特点包括( )。
A. 稀疏交互
B. 参数共享
C. 权重不共享
D. 多模式学习
答案及解析:AB
34.(多选)卷积神经网络中,以下( )操作会改变特征图的尺寸。
A. 卷积操作
B. 池化操作
C. ReLU激活函数
D. 全连接操作
答案及解析:AB
35.(多选)卷积神经网络中,以下哪些参数可以通过训练来学习?( )
A. 卷积核的权重
B. 卷积核的尺寸
C. 偏置项
D. 激活函数的类型
答案及解析:AC
36.(多选)激活特征图与以下哪些因素有关?( )
A. 卷积核的数量
B. 卷积核的尺寸
C. 输入图像的尺寸
D. 激活函数的类型
答案及解析:ABC
37. 卷积神经网络中的卷积操作是密集交互的。( )
答案及解析:
卷积神经网络中的卷积操作是稀疏交互的,而不是密集交互的。稀疏交互意味着每个输出神经元只与输入神经元的一部分相连接,这有助于减少网络中的参数数量和计算成本。
38. 卷积神经网络中的参数共享只发生在同一通道内。( )
答案及解析:
卷积神经网络中的参数共享是指一个卷积核(或称为滤波器)在整个输入图像或特征图上滑动时,使用相同的权重参数。这种参数共享不仅在同一通道内发生,也在不同通道之间发生,但每个通道使用其自己的卷积核。然而,这里的说法“只发生在同一通道内”虽然不完全准确,但可能是指单个卷积核在单个通道内的操作。
39. 卷积神经网络中的每个卷积核都对应一种模式。( )
答案及解析:
在卷积神经网络中,每个卷积核都被设计为从输入数据中提取一种特定的特征模式。因此,可以认为每个卷积核都对应一种模式。
40. 卷积神经网络中的卷积层输出深度与卷积核的数量相同。( )
答案及解析:
卷积神经网络的卷积层输出深度(即特征图的数量)确实与卷积核的数量相同。每个卷积核都会生成一个特征图作为输出。
41. 卷积神经网络中的全连接层可以处理高维数据。( )
答案及解析:
虽然全连接层在神经网络中经常用于处理高维数据(例如,在分类任务的最后几层),但说“卷积神经网络中的全连接层可以处理高维数据”是不准确的。全连接层本身并不特定于卷积神经网络,它可以出现在任何类型的神经网络中。而且,卷积神经网络通常使用卷积层和池化层来逐步降低数据的空间维度,以减少对全连接层的需求。
42. 卷积神经网络中的卷积操作会改变输入图像的空间尺寸。( )
答案及解析:
卷积神经网络中的卷积操作通常会改变输入图像(或特征图)的空间尺寸。这取决于卷积核的大小、步长(stride)以及是否使用填充(padding)。
43. 卷积神经网络中的偏置项b对同一层中所有通道的神经元都是共享的。( )
答案及解析:
在卷积神经网络中,偏置项b是对于每个卷积核(或特征图)共享的,而不是对每个神经元单独设置的。这意味着同一层中所有通道的神经元都使用相同的偏置值。