A.分枝定界法的计算量与具体问题和数据有关。
B.分枝定界法也是一种特征选择的最优算法。
C.分枝定界法是一种自顶向下的方法,没有回溯的过程。
D.分枝定界法是一种自顶向下的方法,具有回溯的过程。
您可能感兴趣的试卷
你可能感兴趣的试题
A.基于类内类间距离的可分性判据的值越小,说明可分离性越好。
B.当各类的协方差矩阵相差很大时,采用基于类内类间距离的可分性判据的效果会好一些。
C.基于类内类间距离的可分性判据的值越大,说明可分离性越好。
D.当各类的协方差矩阵相差很小时,采用基于类内类间距离的可分性判据的效果会好一些。
A.在不影响分类效果的前提下,特征越少越有利于分类。
B.在分类时,特征越多越有利于分类。
C.特征选择不仅可以降低特征空间的维度,还可以消除特征之间的相关性。
D.在特征选择中,有两个很重要的方面,一个是特征的评价准则,另外一个是特征的寻优算法。
A.最小平方误差判别方法中的准则函数是误差长度的平方和
B.在最小平方误差判别中可以使用梯度下降法来求解
C.最小平方误差判别方法适用于线性可分与线性不可分的情况
D.最小平方误差判别方法就是寻找使误差长度的平方和最大的权值
A.寻优算法
B.参数的类型
C.准则函数的形式
D.判别函数的类型
A.在最大似然函数估计中,要估计的参数是一个随机量。
B.最大似然估计是在已知概率密度函数的形式,但是参数未知的情况下,利用训练样本来估计未知参数。
C.在最大似然估计中要求各个样本必须是独立抽取的。
D.在最大似然函数估计中,要估计的参数是一个确定的量。
A.最小错误率的贝叶斯决策是最小风险的贝叶斯决策的特例
B.最小风险的贝叶斯决策考虑到了不同的错误率所造成的不同损失
C.条件风险反映了对于一个样本x采用某种决策时所带来的损失
D.最小风险的贝叶斯决策当中,决策的数量和样本类别的数量一定是相等的
A.车牌识别
B.图像分割
C.人脸识别
D.字符识别
A.PCA算法是通过变换矩阵得到原有特征的线性组合,新特征之间是线性相关的。
B.第一主成分和第二主成分是互不相关的。
C.通过PCA方法得到的特征变换矩阵是由协方差矩阵所对应的最大的几个特征值所得到的特征向量构成的。
D.第一主成分是原始特征的所有线性组合里是方差最大的。
A.基于熵的可分性判据中,判据的值越大,说明类别可分性越差。
B.在基于熵的可分性判据中利用熵的大小来作为类别可分性的判据。
C.熵表示不确定性,熵越大不确定性越大。
D.熵表示不确定性,熵越小不确定性越大。
A.在实际当中,人们主要采用实验方法来估计监督模式识别系统中分类器的错误率。
B.在实际当中,人们主要采用理论分析的方法来评价监督模式识别系统中分类器的错误率。
C.训练错误率并不能准确反映分类器性能的好坏。
D.在监督模式识别系统中,可以用错误率来反映模式识别系统的性能。
最新试题
理想的判据应该对特征具有单调性,加入新的特征不会使判据减小。
贝叶斯估计中是将未知的参数本身也看作一个随机变量,要做的是根据观测数据对参数的分布进行估计。
下面关于超平面的说法中正确的是()。
多类问题的贝叶斯分类器中判别函数的数量与类别数量是有直接关系的。
在感知器算法中训练样本需要经过增广化处理和规范化处理。
神经网络的模型受到哪些因素的影响?()
当各类的协方差矩阵相等时,分类面为超平面,并且与两类的中心连线垂直。
基于数据的方法适用于特征和类别关系不明确的情况。
我们在对某一模式x进行分类判别决策时,只需要算出它属于各类的条件风险就可以进行决策了。
顺序后退法(SBS)是从0个特征开始,每次从已经入选的特征中剔除一个特征,使得仍保留的特征组合所得到的J值最大,是一种特征选择的最优算法。