A.车牌识别
B.汉字识别
C.人脸识别
D.CT图像的分割
您可能感兴趣的试卷
你可能感兴趣的试题
A.分枝定界法的计算量与具体问题和数据有关。
B.分枝定界法也是一种特征选择的最优算法。
C.分枝定界法是一种自顶向下的方法,没有回溯的过程。
D.分枝定界法是一种自顶向下的方法,具有回溯的过程。
A.基于类内类间距离的可分性判据的值越小,说明可分离性越好。
B.当各类的协方差矩阵相差很大时,采用基于类内类间距离的可分性判据的效果会好一些。
C.基于类内类间距离的可分性判据的值越大,说明可分离性越好。
D.当各类的协方差矩阵相差很小时,采用基于类内类间距离的可分性判据的效果会好一些。
A.在不影响分类效果的前提下,特征越少越有利于分类。
B.在分类时,特征越多越有利于分类。
C.特征选择不仅可以降低特征空间的维度,还可以消除特征之间的相关性。
D.在特征选择中,有两个很重要的方面,一个是特征的评价准则,另外一个是特征的寻优算法。
A.最小平方误差判别方法中的准则函数是误差长度的平方和
B.在最小平方误差判别中可以使用梯度下降法来求解
C.最小平方误差判别方法适用于线性可分与线性不可分的情况
D.最小平方误差判别方法就是寻找使误差长度的平方和最大的权值
最新试题
剪辑近邻法去除的是远离分类边界,对于最后的决策没有贡献的样本。
基于数据的方法适用于特征和类别关系不明确的情况。
隐含层或输出层具有激活函数。
C均值聚类算法对噪声和孤立点不敏感。
k-近邻法中k的选取一般为偶数。
特征选择常用的次优算法有顺序前进法,顺序后退法和动态顺序前进法三种。
顺序后退法(SBS)是从0个特征开始,每次从已经入选的特征中剔除一个特征,使得仍保留的特征组合所得到的J值最大,是一种特征选择的最优算法。
分支定界法计算量一定比穷举法小。
理想的判据应该对特征具有单调性,加入新的特征不会使判据减小。
在进行交叉验证时,一般让临时训练集较大,临时测试集较小,这样得到的错误率估计就更接近用全部样本作为训练样本时的错误率。