您可能感兴趣的试卷
你可能感兴趣的试题
A.分枝定界法的计算量与具体问题和数据有关。
B.分枝定界法也是一种特征选择的最优算法。
C.分枝定界法是一种自顶向下的方法,没有回溯的过程。
D.分枝定界法是一种自顶向下的方法,具有回溯的过程。
A.基于类内类间距离的可分性判据的值越小,说明可分离性越好。
B.当各类的协方差矩阵相差很大时,采用基于类内类间距离的可分性判据的效果会好一些。
C.基于类内类间距离的可分性判据的值越大,说明可分离性越好。
D.当各类的协方差矩阵相差很小时,采用基于类内类间距离的可分性判据的效果会好一些。
A.在不影响分类效果的前提下,特征越少越有利于分类。
B.在分类时,特征越多越有利于分类。
C.特征选择不仅可以降低特征空间的维度,还可以消除特征之间的相关性。
D.在特征选择中,有两个很重要的方面,一个是特征的评价准则,另外一个是特征的寻优算法。
A.最小平方误差判别方法中的准则函数是误差长度的平方和
B.在最小平方误差判别中可以使用梯度下降法来求解
C.最小平方误差判别方法适用于线性可分与线性不可分的情况
D.最小平方误差判别方法就是寻找使误差长度的平方和最大的权值
A.寻优算法
B.参数的类型
C.准则函数的形式
D.判别函数的类型
A.在最大似然函数估计中,要估计的参数是一个随机量。
B.最大似然估计是在已知概率密度函数的形式,但是参数未知的情况下,利用训练样本来估计未知参数。
C.在最大似然估计中要求各个样本必须是独立抽取的。
D.在最大似然函数估计中,要估计的参数是一个确定的量。
A.最小错误率的贝叶斯决策是最小风险的贝叶斯决策的特例
B.最小风险的贝叶斯决策考虑到了不同的错误率所造成的不同损失
C.条件风险反映了对于一个样本x采用某种决策时所带来的损失
D.最小风险的贝叶斯决策当中,决策的数量和样本类别的数量一定是相等的
最新试题
隐含层或输出层具有激活函数。
一个数据集能生成多种决策树。
类间离散度矩阵代表了每一个类的重心到整个样本集的重心之间的距离。
在进行交叉验证时,一般让临时训练集较大,临时测试集较小,这样得到的错误率估计就更接近用全部样本作为训练样本时的错误率。
剪辑近邻法去除的是远离分类边界,对于最后的决策没有贡献的样本。
k-近邻法中k的选取一般为偶数。
当各类的协方差矩阵不等时,决策面是超二次曲面。
下面关于超平面的说法中正确的是()。
测试集的样本数量越多,对分类器错误率的估计就越准确。
下面关于交叉验证法的说法中正确的是()。