判断题无监督式学习算法的难度低于监督式学习算法。
您可能感兴趣的试卷
你可能感兴趣的试题
1.判断题特征的个数越多,模式识别的效果越准确。
5.多项选择题关于ECOC的描述正确的是()
A.对同一个学习任务,编码越长、纠错能力越强
B.对分类器错误有一定容忍和修正能力
C.对同等长度的编码,理论上来说,任意两个类别之间的编码距离越远,则纠错能力越强
D.编码的理论性质越好,分类性能就越好
6.多项选择题逻辑斯蒂回归的优点有()
A.直接对分类可能性进行预测
B.无需事先假设数据分布,避免了假设分布不准确所带来的问题
C.是任意阶可导的凸函数,可直接应用现有数值优化算法求取最优解
D.对概率辅助决策的任务有用
7.单项选择题对数几率回归是一种()方法。
A.分类
B.回归
C.聚类
D.降维
8.单项选择题线性回归,通过学得一个()以尽可能准确地预测实值输出类别。
A.非线性模型
B.函数
C.线性模型
D.编码
10.单项选择题下列表达中不能影响贝叶斯估计结果的是()
A.损失函数的形式
B.样本的数量
C.待估计参数的后验概率
D.数据的线性变换
最新试题
特征选择常用的次优算法有顺序前进法,顺序后退法和动态顺序前进法三种。
题型:判断题
动态顺序前进法(l-r)法是按照单步最优的原则从未入选的特征中选择l个特征,再从已入选的特征中剔除r个特征,使得仍保留的特征组合所得到的J值最大。
题型:判断题
分支定界法计算量一定比穷举法小。
题型:判断题
贝叶斯估计中是将未知的参数本身也看作一个随机变量,要做的是根据观测数据对参数的分布进行估计。
题型:判断题
基于数据的方法适用于特征和类别关系不明确的情况。
题型:判断题
顺序后退法(SBS)是从0个特征开始,每次从已经入选的特征中剔除一个特征,使得仍保留的特征组合所得到的J值最大,是一种特征选择的最优算法。
题型:判断题
特征提取不仅可以降低特征空间的维度,还可以消除特征之间的相关性。
题型:判断题
测试集的样本数量越多,对分类器错误率的估计就越准确。
题型:判断题
理想的判据应该对特征具有单调性,加入新的特征不会使判据减小。
题型:判断题
我们在对某一模式x进行分类判别决策时,只需要算出它属于各类的条件风险就可以进行决策了。
题型:判断题