A.算法的组合过程能减小偏差
B.基分类器要选择方差小、泛化能力强的弱分类器
C.只能解决二分类问题
D.异常数据(离群点)影响大
E.精度高,参数少,自适应能力强
F.不易实现并行化训练
您可能感兴趣的试卷
你可能感兴趣的试题
A.有监督学习方法
B.无监督学习方法
C.速度快,分类决策规则明确
D.需选择分支后两个子节点纯度最高的特征作为一个节点的测试特征
E.未考虑特征间的相关性
F.分类无偏性好,但容易发生过拟合
A.分类器性能提升是匀速的,与是否接近最优结果无关
B.分类器越接近最优解,分类器性能提升越慢
C.分类器错误率高,稍微训练即可大幅提升训练结果
D.其余三种说法都对
A.基分类器的分类正确率大于50%
B.每个基分类器的训练集和训练结果要有差异
C.基分类器的数量越多越好
D.组合分类器需要重点考虑方差和偏差
A.串行训练的算法,基分类器彼此关联
B.串行算法不断增加训练器训练偏差
C.基分类器应该选择偏差较小的算法
D.并行训练的算法,基分类器彼此关联
A.Bagging、Boosting、Stacking
B.Bagging、Ababoost、Stacking
C.Bagging、Ababoost、随机森林
D.Ababoost、随机森林、Stacking
最新试题
概率密度函数的估计的本质是根据训练数据来估计概率密度函数的形式和参数。
在监督模式识别中,分类器的形式越复杂,对未知样本的分类精度就越高。
特征选择常用的次优算法有顺序前进法,顺序后退法和动态顺序前进法三种。
隐含层或输出层具有激活函数。
贝叶斯估计中是将未知的参数本身也看作一个随机变量,要做的是根据观测数据对参数的分布进行估计。
顺序前进法的缺点是不能剔除已入选的特征,无法保证全局最优。
利用神经网络对两类问题进行分类时,可以用一个输出节点来实现。
神经网络的模型受到哪些因素的影响?()
理想的判据应该对特征具有单调性,加入新的特征不会使判据减小。
概率密度函数的参数估计需要一定数量的训练样本,样本越多,参数估计的结果越准确。