A.全连接网络计算大
B.隐层神经元数量难以确定
C.容易陷入局部极小值
D.无法做到深度很深,会产生梯度消失
您可能感兴趣的试卷
你可能感兴趣的试题
A.输入权向量
B.偏置量θ
C.网络结构
D.激活函数
A.由简单单元构成复杂网络
B.能够大规模并行计算
C.能够分布式存储信息
D.具有非线性逼近能力
E.具有自适应学习能力
A.前馈网络表达输入和输出之间的映射关系
B.前馈网络表达输出与输入的共同作用
C.反馈网络表达输入和输出之间的映射关系
D.反馈网络表达输出与输入的共同作用
E.前馈网络为静态网络
F.前馈网络为动态网络
G.反馈网络为静态网络
H.反馈网络为动态网络
I.前馈网络输出不作用在网络的输入中
J.反馈网络下一时刻的输出与上一时刻的输出有关
A.玻尔兹曼机是一种存在全互联的神经网络模型
B.玻尔兹曼机学习结果是使得网络的输入输出联合概率分布与训练集样本的输入输出联合概率分布接近
C.玻尔兹曼机的学习过程是调整权向量和网络结构的过程
D.玻尔兹曼机使用李雅普诺夫能量函数描绘网络状态演化的结果
A.LeNet中使用的是均值池化
B.均值池化可以较好地保留图像的背景信息
C.均值池化在处理图像时,图像的边缘会被钝化
D.均值池化在物体轮廓等特征提取中更有效
A.激活函数
B.权值
C.阈值
D.隐层单元
A.保留更多信息
B.降维
C.减少计算量
D.过滤部分噪声
A.对比散度算法采用无监督学习规则
B.对比散度算法中隐层也被称为特征提取器
C.随机梯度下降法迭代修正权向量和偏置量一次就能取得较好结果
D.多层同时完成在玻尔兹曼机中的预训练
A.多层感知器网络在早期的发展中存在如何训练的问题
B.网络的层数多少和逼近能力呈正相关
C.隐层神经元的输出误差可以直接获取
D.BP网络中每个神经元学习的规则都是误差反馈学习
A.均方误差函数
B.平均误差函数
C.最大误差函数
D.最小误差函数
最新试题
分支定界法计算量一定比穷举法小。
一个数据集能生成多种决策树。
当各类的协方差矩阵不等时,决策面是超二次曲面。
概率密度函数的估计的本质是根据训练数据来估计概率密度函数的形式和参数。
概率密度函数的参数估计需要一定数量的训练样本,样本越多,参数估计的结果越准确。
剪辑近邻法去除的是远离分类边界,对于最后的决策没有贡献的样本。
在感知器算法中训练样本需要经过增广化处理和规范化处理。
在总的样本集不是很大的情况下,可以采用交叉验证法来较好的估计分类器性能。
fisher线性判别方法可以将样本从多维空间投影到一维空间。
测试集的样本数量越多,对分类器错误率的估计就越准确。