答案:A
A. 建模
B. 模型测试
C. 模型应用
D. 分析模型
A. 样本数量太少
B. 样本数量过多
C. 模型太复杂
D. 模型太简单
A. 协同训练
B. 组合训练
C. 配合训练
D. 陪同训练
解析:见算法解析
A. 随机森林
B. Adaboost
C. kNN
D. XGBoost
解析:集成方法分类为:Bagging(并行训练):随机森林,Boosting(串行训练):Adaboost, GBDT: XgBoost,Stacking,Blending
A. 逻辑
B. 概率
C. 推理
D. 假定
A. numpy
B. sclpy
C. matplotiib
D. skleam
A. 增加树的深度
B. 增加学习率
C. 减少树的数量
D. 减小树的深度
解析:一般用决策树进行分类,从根结点开始,对实例的某一特征进行测试,根据测试结果,将实例分配到其子结点。这时,每一个子结点对应着该特征的一个取值。如此递归地对实例进行测试并分类,直至达到叶结点。最后将实例分到叶结点的类中。—— 引自李航 《统计学习方法》
决策树深度越深,在训练集上误差会越小,准确率越高。但是容易造成过拟合,而且增加模型的训练时间。对决策树进行修剪,减小树的深度,能够提高模型的训练速度,有效避免过拟合。
单决策树中,学习率不是一个有效参数。
决策树是单树,随机森林由多个决策树组成。
A. 预测
B. 回归
C. 分类
D. 聚类
A. 自助采样法
B. 富集采样法
C. 自然采样法
D. 填充柱采样法