答案:A
答案:A
A. 激活函数都是线性函数
B. 激活函数都是非线性函数
C. 激活函数部分是非线性函数,部分是线性函数
D. 激活函数大多数是非线性函数,少数是线性函数
A. 一对一
B. 一对其余
C. 一对多
D. 多对多
解析:见算法解析
A. [0,1]
B. [-1,1]
C. (-∞~∞)
D. (0,1)
解析:Sigmoid函数将变量映射在0至1之间
A. JPG
B. png
C. GIF
D. BMP
解析:主要应用
A. 增加树的深度
B. 增大学习率(Learnin Rate)
C. 对决策树模型进行预剪枝
D. 减少树的数量
A. GoogLeNet仅仅是在宽度上进行了探索,所以它是一个很浅的网络
B. GoogLeNet在宽度上进行了探索,为后人设计更加复杂的网络打开了思路
C. GoogLeNet使用了Inception结构,Inception结构只有V1这一个版本
D. GoogLeNet结合多种网络设计结构所以是到目前为止分类效果最好的网络结构
解析:GoogLeNet在宽度上进行了探索,为后人设计更加复杂的网络打开了思路
A. 分类
B. 回归
C. 聚类
D. 二分类
解析:见算法解析
A. 损失函数是用泰勒展式二项逼近,而GBDT只是一阶导数$;$对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;$节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的$;$XGBoost使用网格搜索,只能检测有限个值
解析:XGBoost类似于GBDT的优化版,不论是精度还是效率上都有了提升。与GBDT相比,具体的优点有:
1.损失函数是用泰勒展式二项逼近,而不是像GBDT里的就是一阶导数;
2.对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;
3.节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的。