您可能感兴趣的试卷
你可能感兴趣的试题
A.分枝定界法也是一种特征选择的最优算法
B.分枝定界法是一种自顶向下的方法,具有回溯的过程
C.分枝定界法是一种自顶向下的方法,没有回溯的过程
D.分枝定界法的计算量与具体问题和数据有关
A.特征选择不仅可以降低特征空间的维度,还可以消除特征之间的相关性
B.基于类内类间距离的可分性判据是通过计算各类特征向量之间的平均距离来作为评价准则
C.基于类内类间距离的可分性判据的值越大,说明可分离性越好
D.当各类的协方差矩阵相差不大时,采用基于类内类间距离的可分性判据的效果会好一些
A.当每一类均符合高斯分布时,可以通过调整二次判别函数中的阈值来减少错误率。
B.如果一类分布比较接近高斯分布,即分布为团状,而另外一类则较均匀的分布在第一类附近,需要分别求出每一类的判别函数来进行类别的划分。
C.每一类样本都满足高斯分布,可以定义每一类的判别函数为样本到各类均值的马氏距离的平方与给定阈值之间的比较。
D.如果其中一类分布比较接近高斯分布,即分布为团状,而另外一类则较均匀的分布在第一类附近,只求出一类的判别函数就可以进行类别的划分。
A.在分段线性判别函数的设计当中很重要的一个问题是子类的划分问题。
B.在类别的各个维度不对称的情况下,可以考虑使用分段线性距离分类器。
C.分段线性距离分类器在类别的各个维度不对称的情况下,分类结果是不准确的。
D.分段线性判别函数能够逼近任意的超曲面,具有很强的适应性。
最新试题
特征提取不仅可以降低特征空间的维度,还可以消除特征之间的相关性。
当各类的协方差矩阵相等时,分类面为超平面,并且与两类的中心连线垂直。
下面关于交叉验证法的说法中正确的是()。
概率密度函数的参数估计需要一定数量的训练样本,样本越多,参数估计的结果越准确。
剪辑近邻法去除的是远离分类边界,对于最后的决策没有贡献的样本。
顺序前进法的缺点是不能剔除已入选的特征,无法保证全局最优。
神经网络的模型受到哪些因素的影响?()
理想的判据应该对特征具有单调性,加入新的特征不会使判据减小。
一个数据集能生成多种决策树。
ID3方法的目的是降低系统信息熵。