您可能感兴趣的试卷
你可能感兴趣的试题
A.是层数较多的大规模神经网络
B.逐层抽象,发现数据集的特征
C.需要大规模并行计算能力的支持
D.需要大量样本进行训练
A.全连接网络计算大
B.隐层神经元数量难以确定
C.容易陷入局部极小值
D.无法做到深度很深,会产生梯度消失
A.输入权向量
B.偏置量θ
C.网络结构
D.激活函数
A.由简单单元构成复杂网络
B.能够大规模并行计算
C.能够分布式存储信息
D.具有非线性逼近能力
E.具有自适应学习能力
A.前馈网络表达输入和输出之间的映射关系
B.前馈网络表达输出与输入的共同作用
C.反馈网络表达输入和输出之间的映射关系
D.反馈网络表达输出与输入的共同作用
E.前馈网络为静态网络
F.前馈网络为动态网络
G.反馈网络为静态网络
H.反馈网络为动态网络
I.前馈网络输出不作用在网络的输入中
J.反馈网络下一时刻的输出与上一时刻的输出有关
A.玻尔兹曼机是一种存在全互联的神经网络模型
B.玻尔兹曼机学习结果是使得网络的输入输出联合概率分布与训练集样本的输入输出联合概率分布接近
C.玻尔兹曼机的学习过程是调整权向量和网络结构的过程
D.玻尔兹曼机使用李雅普诺夫能量函数描绘网络状态演化的结果
A.LeNet中使用的是均值池化
B.均值池化可以较好地保留图像的背景信息
C.均值池化在处理图像时,图像的边缘会被钝化
D.均值池化在物体轮廓等特征提取中更有效
A.激活函数
B.权值
C.阈值
D.隐层单元
A.保留更多信息
B.降维
C.减少计算量
D.过滤部分噪声
A.对比散度算法采用无监督学习规则
B.对比散度算法中隐层也被称为特征提取器
C.随机梯度下降法迭代修正权向量和偏置量一次就能取得较好结果
D.多层同时完成在玻尔兹曼机中的预训练
最新试题
下面关于超平面的说法中正确的是()。
动态顺序前进法(l-r)法是按照单步最优的原则从未入选的特征中选择l个特征,再从已入选的特征中剔除r个特征,使得仍保留的特征组合所得到的J值最大。
在感知器算法中训练样本需要经过增广化处理和规范化处理。
ID3方法的目的是降低系统信息熵。
k-近邻法中k的选取一般为偶数。
类间离散度矩阵代表了每一个类的重心到整个样本集的重心之间的距离。
测试集的样本数量越多,对分类器错误率的估计就越准确。
当各类的协方差矩阵不等时,决策面是超二次曲面。
在监督模式识别中,分类器的形式越复杂,对未知样本的分类精度就越高。
分支定界法计算量一定比穷举法小。