答案:A
解析:正确
答案:A
解析:正确
A. 重复数据
B. 虚假数据
C. 错误数据
D. 异常数据
A. 在线
B. 离线
C. 自动
D. 手动
解析:主要应用
解析:神经网络研究属于连接主义学派,错误
A. 多分类学习
B. 对数几率回归
C. 线性判别分析
D. 多分类学习
解析:基础概念
A. 扩展现实技术
B. 区块链技术
C. 数字孪生技术
D. 云计算
A. 数组描述
B. 数据描述
C. 算法描述
D. 存储空间描述
A. 损失函数是用泰勒展式二项逼近,而GBDT只是一阶导数$;$对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;$节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的$;$XGBoost使用网格搜索,只能检测有限个值
解析:XGBoost类似于GBDT的优化版,不论是精度还是效率上都有了提升。与GBDT相比,具体的优点有:
1.损失函数是用泰勒展式二项逼近,而不是像GBDT里的就是一阶导数;
2.对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;
3.节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的。
A. 从偏差-方差分解的角度看,Boosting主要关注降低偏差
B. 从偏差-方差分解的角度看,Bagging主要关注降低方差
C. 随机森林简单、容易实现、计算开销小
D. Boosting不能基于泛化性能相当弱的学习器构建出很强的集成
解析:见算法解析
A. 序列中的元素是无关的
B. 序列中的元素蕴含着顺序的规律
C. 序列中的元素都是随机出现的
D. 序列中的元素都来自同一个数据源
解析:循环神经网络之所以有作用是因为序列中的元素蕴含着顺序的规律
A. 封装
B. 继承
C. 多态
D. 独立
解析:见算法解析