您可能感兴趣的试卷
你可能感兴趣的试题
A.不确定需要映射到多少维的空间上,非线性问题才会转化为线性问题
B.如何找到合适的映射函数φ
C.增加计算量,可能会因为维数灾难无法解决
D.能够确定映射到的高维空间的维度
E.能够找到合适的映射函数φ
F.增加计算量时可以避免出现维数灾难
A.置信风险越大
B.结构风险越大
C.分类器泛化能力越差
D.经验风险越大
A.最小均方误差
B.最大均方误差
C.平均值法
D.梯度下降法
A.异常点干扰和非线性分类
B.异常点干扰和线性分类
C.非异常点干扰和线性分类
D.非异常点干扰和非线性分类
A.惩罚因子越大,容忍度越低
B.惩罚因子越大,容忍度越高
C.二者之间存在联系,但是不能找到联系间存在的规律
D.二者没有联系
①更新权向量w(k+1)
②令k=k=1,进行下一步递推,计算误差向量,直至e(k)小于等于0
③当k=0时,设定初始松弛变量b(0)的值,计算初始权向量
④更新松弛变量b(k+1)
⑤计算误差向量e(k)
H-K算法的正确排序是?()
A.③⑤①④②
B.②⑤①③④
C.③①⑤④②
D.①②③④⑤
最新试题
顺序后退法(SBS)是从0个特征开始,每次从已经入选的特征中剔除一个特征,使得仍保留的特征组合所得到的J值最大,是一种特征选择的最优算法。
类间离散度矩阵代表了每一个类的重心到整个样本集的重心之间的距离。
下面关于贝叶斯分类器的说法中错误的是()。
我们在对某一模式x进行分类判别决策时,只需要算出它属于各类的条件风险就可以进行决策了。
在进行交叉验证时,一般让临时训练集较大,临时测试集较小,这样得到的错误率估计就更接近用全部样本作为训练样本时的错误率。
分支定界法计算量一定比穷举法小。
k-近邻法中k的选取一般为偶数。
一个数据集能生成多种决策树。
当各类的协方差矩阵相等时,分类面为超平面,并且与两类的中心连线垂直。
在总的样本集不是很大的情况下,可以采用交叉验证法来较好的估计分类器性能。