A.分枝定界法也是一种特征选择的最优算法
B.分枝定界法是一种自顶向下的方法,具有回溯的过程
C.分枝定界法是一种自顶向下的方法,没有回溯的过程
D.分枝定界法的计算量与具体问题和数据有关
您可能感兴趣的试卷
你可能感兴趣的试题
A.特征选择不仅可以降低特征空间的维度,还可以消除特征之间的相关性
B.基于类内类间距离的可分性判据是通过计算各类特征向量之间的平均距离来作为评价准则
C.基于类内类间距离的可分性判据的值越大,说明可分离性越好
D.当各类的协方差矩阵相差不大时,采用基于类内类间距离的可分性判据的效果会好一些
A.当每一类均符合高斯分布时,可以通过调整二次判别函数中的阈值来减少错误率。
B.如果一类分布比较接近高斯分布,即分布为团状,而另外一类则较均匀的分布在第一类附近,需要分别求出每一类的判别函数来进行类别的划分。
C.每一类样本都满足高斯分布,可以定义每一类的判别函数为样本到各类均值的马氏距离的平方与给定阈值之间的比较。
D.如果其中一类分布比较接近高斯分布,即分布为团状,而另外一类则较均匀的分布在第一类附近,只求出一类的判别函数就可以进行类别的划分。
A.在分段线性判别函数的设计当中很重要的一个问题是子类的划分问题。
B.在类别的各个维度不对称的情况下,可以考虑使用分段线性距离分类器。
C.分段线性距离分类器在类别的各个维度不对称的情况下,分类结果是不准确的。
D.分段线性判别函数能够逼近任意的超曲面,具有很强的适应性。
最新试题
测试集的样本数量越多,对分类器错误率的估计就越准确。
参数估计是已知概率密度的形式,而参数未知。
剪辑近邻法去除的是远离分类边界,对于最后的决策没有贡献的样本。
特征提取不仅可以降低特征空间的维度,还可以消除特征之间的相关性。
基于数据的方法适用于特征和类别关系不明确的情况。
k-近邻法中k的选取一般为偶数。
多类问题的贝叶斯分类器中判别函数的数量与类别数量是有直接关系的。
概率密度函数的估计的本质是根据训练数据来估计概率密度函数的形式和参数。
利用神经网络对两类问题进行分类时,可以用一个输出节点来实现。
一个数据集能生成多种决策树。