答案:B
解析:后剪枝决策树通常比预剪枝决策树保留了更多的分支, 一般情形下,后剪枝决策树的欠拟合风险很小,泛化性能往往优于预剪枝决策树,但后剪枝过程是在生成完全决策树之后进行的,并且要白底向上地对树中的所有非叶结点进行逐一考察,因此其训练时间开销比未剪枝决策树和预剪枝决策树都要大得多
答案:B
解析:后剪枝决策树通常比预剪枝决策树保留了更多的分支, 一般情形下,后剪枝决策树的欠拟合风险很小,泛化性能往往优于预剪枝决策树,但后剪枝过程是在生成完全决策树之后进行的,并且要白底向上地对树中的所有非叶结点进行逐一考察,因此其训练时间开销比未剪枝决策树和预剪枝决策树都要大得多
A. 标准SVM
B. 多项式回归
C. 线性回归
D. 神经元模型
解析:多项式回归可处理非线性问题
A. 用户
B. 综合数据库
C. 推理机
D. 知识库
A. 有师学习
B. 无师学习
C. 强化学习
D. 都不是
A. 连接边
B. 关系
C. 属性
D. 特征
A. RndomForest的中间树不是相互独立的,而GrdientBoostingTrees的中间树是相互独立的
B. 两者都使用随机特征子集来创建中间树
C. 在GradientBoostingTrees中可以生成并行树,因为它们是相互独立的
D. 无论任何数据,GraientBoostingTrees总是优于RanomFores
A. 1/2
B. 1/3
C. 2/3
D. 5/6
解析:【分析】
根据正方体骰子共有6个面,通过观察向上一面的点数,即可得到与点数2的差不大于1的概率.
【详解】
∵正方体骰子共6个面,
每个面上的点数分别为1、2、3、4、5、6,
∴与点数2的差不大于1的有1、2、3.
∴与点数2的差不大于1的概率是 .
故选:A
A. 模型对训练集拟合程度高,对测试集拟合程度高
B. 模型对训练集拟合程度高,对测试集拟合程度低
C. 模型对训练集拟合程度低,对测试集拟合程度高
D. 模型对训练集拟合程度低,对测试集拟合程度低
A. 穷举搜索$;$随机搜索$;$Bayesian优化
解析:穷举搜索法,随机搜索法,贝叶斯优化都可以优化超参数,各有优劣。
所以ABC三种都可实现调整优化超参数。答案ABC
A. 系数
B. 几率
C. Cohen度量
D. 兴趣因子
A. 归纳逻辑程序设计
B. 内部逻辑程序设计
C. 信息泄露防护
D. 引入层次程序设计
解析:见算法解析