您可能感兴趣的试卷
你可能感兴趣的试题
A.分枝定界法的计算量与具体问题和数据有关。
B.分枝定界法也是一种特征选择的最优算法。
C.分枝定界法是一种自顶向下的方法,没有回溯的过程。
D.分枝定界法是一种自顶向下的方法,具有回溯的过程。
A.基于类内类间距离的可分性判据的值越小,说明可分离性越好。
B.当各类的协方差矩阵相差很大时,采用基于类内类间距离的可分性判据的效果会好一些。
C.基于类内类间距离的可分性判据的值越大,说明可分离性越好。
D.当各类的协方差矩阵相差很小时,采用基于类内类间距离的可分性判据的效果会好一些。
A.在不影响分类效果的前提下,特征越少越有利于分类。
B.在分类时,特征越多越有利于分类。
C.特征选择不仅可以降低特征空间的维度,还可以消除特征之间的相关性。
D.在特征选择中,有两个很重要的方面,一个是特征的评价准则,另外一个是特征的寻优算法。
A.最小平方误差判别方法中的准则函数是误差长度的平方和
B.在最小平方误差判别中可以使用梯度下降法来求解
C.最小平方误差判别方法适用于线性可分与线性不可分的情况
D.最小平方误差判别方法就是寻找使误差长度的平方和最大的权值
A.寻优算法
B.参数的类型
C.准则函数的形式
D.判别函数的类型
A.在最大似然函数估计中,要估计的参数是一个随机量。
B.最大似然估计是在已知概率密度函数的形式,但是参数未知的情况下,利用训练样本来估计未知参数。
C.在最大似然估计中要求各个样本必须是独立抽取的。
D.在最大似然函数估计中,要估计的参数是一个确定的量。
A.最小错误率的贝叶斯决策是最小风险的贝叶斯决策的特例
B.最小风险的贝叶斯决策考虑到了不同的错误率所造成的不同损失
C.条件风险反映了对于一个样本x采用某种决策时所带来的损失
D.最小风险的贝叶斯决策当中,决策的数量和样本类别的数量一定是相等的
A.车牌识别
B.图像分割
C.人脸识别
D.字符识别
最新试题
顺序后退法(SBS)是从0个特征开始,每次从已经入选的特征中剔除一个特征,使得仍保留的特征组合所得到的J值最大,是一种特征选择的最优算法。
在感知器算法中训练样本需要经过增广化处理和规范化处理。
在总的样本集不是很大的情况下,可以采用交叉验证法来较好的估计分类器性能。
特征选择常用的次优算法有顺序前进法,顺序后退法和动态顺序前进法三种。
在进行交叉验证时,一般让临时训练集较大,临时测试集较小,这样得到的错误率估计就更接近用全部样本作为训练样本时的错误率。
下面关于交叉验证法的说法中正确的是()。
多类问题的贝叶斯分类器中判别函数的数量与类别数量是有直接关系的。
k-近邻法中k的选取一般为偶数。
当各类的协方差矩阵相等时,分类面为超平面,并且与两类的中心连线垂直。
我们在对某一模式x进行分类判别决策时,只需要算出它属于各类的条件风险就可以进行决策了。