A、查全率
B、查准率
C、响应时间
D、响应速度
答案:A
A、查全率
B、查准率
C、响应时间
D、响应速度
答案:A
A. 特征稠密
B. 特征稀疏
C. 能够表征词与词之间的相互关系(相似度计算)
D. 泛化性更好,支持语义运算sim
解析:见算法解析
A. Boosting
B. Bagging
C. 随机森林
D. reboot
解析:根据个体学习器的生成方式,目前集成学习大致分为两类,其中一种是个体学习器间存在强依赖关系、必须串行生成的序列化方法,该方法的代表是 Boosting
A. 可以提高特征关联性
B. 可以减轻维数灾难问题
C. 可以降低学习任务的难度
D. 特征选择和降维具有相似的动机
解析:见算法解析
A. LeNet-5
B. AlexNet
C. ResNet50
D. ResNet152
解析:最早用于手写数字识别的卷积神经网络模型是LeNet-5
A. 生成式学习
B. 生成式场景
C. 生成式数据
D. 生成式模型
解析:见算法解析
A. 数据分析
B. 知识提取
C. 自主学习
D. 智能决策
解析:主要应用
A. 217x217x3
B. 217x217x8
C. 218x218x5
D. 220x220x7
A. 斜率
B. 偏斜度
C. 偏度
D. 偏离度
A. 损失函数是用泰勒展式二项逼近,而GBDT只是一阶导数
B. 对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;$节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的
C. XGBoost使用网格搜索,只能检测有限个值
解析:XGBoost类似于GBDT的优化版,不论是精度还是效率上都有了提升。与GBDT相比,具体的优点有:
1.损失函数是用泰勒展式二项逼近,而不是像GBDT里的就是一阶导数;
2.对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;
3.节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的。
A. 适应性
B. 由简单单元组成
C. 广泛并行互连的网络
D. 线性特性
解析:见算法解析