A.在不影响分类效果的前提下,特征越少越有利于分类。
B.在分类时,特征越多越有利于分类。
C.特征选择不仅可以降低特征空间的维度,还可以消除特征之间的相关性。
D.在特征选择中,有两个很重要的方面,一个是特征的评价准则,另外一个是特征的寻优算法。
您可能感兴趣的试卷
你可能感兴趣的试题
A.最小平方误差判别方法中的准则函数是误差长度的平方和
B.在最小平方误差判别中可以使用梯度下降法来求解
C.最小平方误差判别方法适用于线性可分与线性不可分的情况
D.最小平方误差判别方法就是寻找使误差长度的平方和最大的权值
A.寻优算法
B.参数的类型
C.准则函数的形式
D.判别函数的类型
A.在最大似然函数估计中,要估计的参数是一个随机量。
B.最大似然估计是在已知概率密度函数的形式,但是参数未知的情况下,利用训练样本来估计未知参数。
C.在最大似然估计中要求各个样本必须是独立抽取的。
D.在最大似然函数估计中,要估计的参数是一个确定的量。
A.最小错误率的贝叶斯决策是最小风险的贝叶斯决策的特例
B.最小风险的贝叶斯决策考虑到了不同的错误率所造成的不同损失
C.条件风险反映了对于一个样本x采用某种决策时所带来的损失
D.最小风险的贝叶斯决策当中,决策的数量和样本类别的数量一定是相等的
A.车牌识别
B.图像分割
C.人脸识别
D.字符识别
A.PCA算法是通过变换矩阵得到原有特征的线性组合,新特征之间是线性相关的。
B.第一主成分和第二主成分是互不相关的。
C.通过PCA方法得到的特征变换矩阵是由协方差矩阵所对应的最大的几个特征值所得到的特征向量构成的。
D.第一主成分是原始特征的所有线性组合里是方差最大的。
A.基于熵的可分性判据中,判据的值越大,说明类别可分性越差。
B.在基于熵的可分性判据中利用熵的大小来作为类别可分性的判据。
C.熵表示不确定性,熵越大不确定性越大。
D.熵表示不确定性,熵越小不确定性越大。
A.在实际当中,人们主要采用实验方法来估计监督模式识别系统中分类器的错误率。
B.在实际当中,人们主要采用理论分析的方法来评价监督模式识别系统中分类器的错误率。
C.训练错误率并不能准确反映分类器性能的好坏。
D.在监督模式识别系统中,可以用错误率来反映模式识别系统的性能。
A.多于
B.等于
C.不确定
D.少于
A.BP算法由误差的正向传播和数据的反向传播两个过程构成。
B.BP网络是是一种按误差反向传播算法训练的多层前馈网络。
C.在BP算法中数据的正向传播和误差的反向传播是交替进行的。
D.BP算法由数据流的前向计算(正向传播)和误差信号的反向传播两个过程构成。
最新试题
类间离散度矩阵代表了每一个类的重心到整个样本集的重心之间的距离。
基于数据的方法适用于特征和类别关系不明确的情况。
特征选择常用的次优算法有顺序前进法,顺序后退法和动态顺序前进法三种。
动态顺序前进法(l-r)法是按照单步最优的原则从未入选的特征中选择l个特征,再从已入选的特征中剔除r个特征,使得仍保留的特征组合所得到的J值最大。
利用神经网络对两类问题进行分类时,可以用一个输出节点来实现。
C均值聚类算法对噪声和孤立点不敏感。
当各类的协方差矩阵不等时,决策面是超二次曲面。
下面关于贝叶斯分类器的说法中错误的是()。
分级聚类又叫层次聚类,需要构建聚类树。
测试集的样本数量越多,对分类器错误率的估计就越准确。