BP算法基于()策略对参数进行调整 A:梯度下降 B:梯度上升 C:最小化误差 D:误差逆传播 答案: 梯度下降BP神经网络由于其强大的表示能力,经常遭遇()问题,即训练误差持续下降,但测试误差却可能上升。 A:欠拟合 B:过拟合 C:梯度 点我阅读全文
在现实任务中,人们常采用以下策略来试图跳出局部极小,进而接近全局最小 A:遗传算法 B:梯度下降 C:随机梯度下降 D:模拟退火 答案: 遗传算法,随机梯度下降,模拟退火神经网络中的激活函数可以采用线性函数 A:错 B:对 答案: 错 点我阅读全文
模型的评估方法不包括()。 A:自助法 B:计分法 C:交叉验证法 D:留出法 答案: 计分法决策树学习的目的是为了产生一棵泛化能力强,即处理未见示例能力强的决策树 A:对 B:错 答案: 对模型评估方法中留出法的缺点是()。 A:在数据集 点我阅读全文
模型的泛化性能由()决定。 A:学习算法的能力 B:学习任务本身的难度 C:数据集的划分 D:数据的充分性 答案: 学习算法的能力,学习任务本身的难度,数据的充分性预剪枝策略降低了过拟合风险。 A:错 B:对 答案: 对解决过拟合的方案包括 点我阅读全文
以下哪些是可能导致模型过拟合的原因() A:模型学习到了样本的一般性质 B:学习迭代次数过多 C:训练集数量级和模型复杂度不匹配,训练集的数量级小于模型的复杂度 D:训练集和测试集特征分布不一致 答案: 学习迭代次数过多,训练集数量级和模型 点我阅读全文
基于梯度的搜索是使用最广泛的参数寻优方法,若误差函数在当前点的梯度为零,则已达到全局最小。 A:对 B:错 答案: 错多层感知机表示异或逻辑时最少需要( )个隐含层(仅考虑二元输入) A:4 B:2 C:3 D:1 答案: 2 点我阅读全文
在学习过程中,X表示数据集,Y是所有标记的集合,也称为( )。 A:属性集合 B:样本集合 C:输出空间 D:函数 答案: 输出空间解决类别不平衡的方法包括() A:去除正例样本 B:过采样 C:阈值移动 D:欠采样 答案: 过采样,阈值移 点我阅读全文
下列关于学习算法的说法正确的是 A:学习算法必须有某种偏好,才能产出它认为“正确”的模型 B:在某些问题上表现好的学习算法,在另一些问题上却可能不尽人意 C:要谈论算法的相对优劣,必须要针对具体的学习问题 D:学习算法自身的归纳偏好与问题是 点我阅读全文
对西瓜的成熟度进行预测得到结果为0.51,这属于()学习任务。 线性回归模型中,联系函数g(∙)为对数几率函数ln(y/(1-y))时,该线性模型成为() A:曲线线性回归 B:对数线性回归 C:对数几率回归 D:指数线性回归 答案: 对数 点我阅读全文
机器学习是整个人工智能的核心,机器学习算法的特征之一就是( )。 A:特征 B:数据 C:类别 D:模型 答案: 模型线性判别分析(LDA)设法将样例投影到一条直线上,使得同类样例的投影点尽可能接近 A:错 B:对 答案: 对模型的泛化能力 点我阅读全文
演绎是从一般到特殊的”特化”过程,即从基础原理推演出具体状况 A:对 B:错 答案: 对在分类学习任务中,可以增加一些正例解决类别不平衡问题 A:错 B:对 答案: 对分类预测的是离散值 A:对 B:错 答案: 对线性回归目的是学得多项式模 点我阅读全文
实际应用中,“一个模型肯定比另一个模型具有更强的泛化能力”的这种情况是不存在的。 A:对 B:错 答案: 对在属性划分中,信息增益越大,结点的纯度() A:不变 B:降低越快 C:提升越大 D:变为零 答案: 提升越大机器学习的目标就是获得 点我阅读全文
测试性能随着测试集的变化而变化 A:错 B:对 答案: 对多变量决策树中的非叶子节点是对()属性的线性组合进行测试。 A:零个 B:所有 C:一个 D:若干个 答案: 若干个以下关于回归的说法中,不正确的是()。 A:回归的目标属性是离散的 点我阅读全文
下列关于查全率和查准率的说法哪种正确()。 A:查全率和查准率成反比 B:查全率和查准率成正比 C:好的模型可以做到查全率和查准率都达到100% D:查全率和查准率存在着互逆关系 答案: 查全率和查准率存在着互逆关系决策树学习算法中,预留一 点我阅读全文