A、BGD
B、SGD
C、Mini-Batch
D、dropout
答案:ABC
解析:梯度下降法作为机器学习中较常使用的优化算法,其有着三种不同的形式:批量梯度下降(Batch Gradient Descent)、随机梯度下降(Stochastic Gradient Descent)以及小批量梯度下降(Mini-Batch Gradient Descent)
A、BGD
B、SGD
C、Mini-Batch
D、dropout
答案:ABC
解析:梯度下降法作为机器学习中较常使用的优化算法,其有着三种不同的形式:批量梯度下降(Batch Gradient Descent)、随机梯度下降(Stochastic Gradient Descent)以及小批量梯度下降(Mini-Batch Gradient Descent)
A. 损失函数是用泰勒展式二项逼近,而GBDT只是一阶导数$;$对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;$节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的$;$XGBoost使用网格搜索,只能检测有限个值
解析:XGBoost类似于GBDT的优化版,不论是精度还是效率上都有了提升。与GBDT相比,具体的优点有:
1.损失函数是用泰勒展式二项逼近,而不是像GBDT里的就是一阶导数;
2.对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;
3.节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的。
A. 使用正向选择法(ForwardSelection)
B. 使用反向消除法(BackwardElimination)
C. 逐步选择消除法(Stepwise)
D. 计算不同特征之间的相关系数,删去相关系数高的特征之一
解析:好的特征选择能够提升模型的性能。
解析:不同的多样性增强机制可同时使用
A. 逗号、分号
B. 逗号、冒号
C. 分号、逗号
D. 分号、分号
A. 声乐和心理
B. 合成和分析
C. 知识表达和组织
D. 字典和算法
A. C
B. C*H
C. H*W
D. nan
解析:见算法解析
A. 信息增益
B. 损失函数
C. 准确率
D. 召回率
解析:剪枝分为前剪枝和后剪枝,前剪枝本质就是早停止,后剪枝通常是通过衡量剪枝后损失函数变化来决定是否剪枝。