您可能感兴趣的试卷
你可能感兴趣的试题
A.分枝定界法的计算量与具体问题和数据有关。
B.分枝定界法也是一种特征选择的最优算法。
C.分枝定界法是一种自顶向下的方法,没有回溯的过程。
D.分枝定界法是一种自顶向下的方法,具有回溯的过程。
A.基于类内类间距离的可分性判据的值越小,说明可分离性越好。
B.当各类的协方差矩阵相差很大时,采用基于类内类间距离的可分性判据的效果会好一些。
C.基于类内类间距离的可分性判据的值越大,说明可分离性越好。
D.当各类的协方差矩阵相差很小时,采用基于类内类间距离的可分性判据的效果会好一些。
A.在不影响分类效果的前提下,特征越少越有利于分类。
B.在分类时,特征越多越有利于分类。
C.特征选择不仅可以降低特征空间的维度,还可以消除特征之间的相关性。
D.在特征选择中,有两个很重要的方面,一个是特征的评价准则,另外一个是特征的寻优算法。
A.最小平方误差判别方法中的准则函数是误差长度的平方和
B.在最小平方误差判别中可以使用梯度下降法来求解
C.最小平方误差判别方法适用于线性可分与线性不可分的情况
D.最小平方误差判别方法就是寻找使误差长度的平方和最大的权值
A.寻优算法
B.参数的类型
C.准则函数的形式
D.判别函数的类型
最新试题
下面关于超平面的说法中正确的是()。
当各类的协方差矩阵相等时,分类面为超平面,并且与两类的中心连线垂直。
一个数据集能生成多种决策树。
fisher线性判别方法可以将样本从多维空间投影到一维空间。
测试集的样本数量越多,对分类器错误率的估计就越准确。
分级聚类又叫层次聚类,需要构建聚类树。
理想的判据应该对特征具有单调性,加入新的特征不会使判据减小。
利用神经网络对两类问题进行分类时,可以用一个输出节点来实现。
下面关于贝叶斯分类器的说法中错误的是()。
顺序后退法(SBS)是从0个特征开始,每次从已经入选的特征中剔除一个特征,使得仍保留的特征组合所得到的J值最大,是一种特征选择的最优算法。