A、支持向量机
B、神经网络
C、数据可视化
D、数据挖掘
答案:C
A、支持向量机
B、神经网络
C、数据可视化
D、数据挖掘
答案:C
A. 每次选择一个与残差相关性最大的特征
B. 是一种包裹式特征选择法
C. 基于线性回归平绝对误差最小化
D. 是通过对LASSO稍加修改而实现
解析:见算法解析
解析:正确
A. 估算
B. 整例删除
C. 变量删除
D. 成对删除
A. 词法分析
B. 句法分析
C. 语境分析
D. 语义分析
解析:基础知识
A. 远程
B. 本地
C. 云端
D. SAMBA
解析:主要应用
A. 数据挖掘的成功经常依赖于数据挖掘工具的选择
B. 虽然数据可视化具有很明显的吸引力,高维数据上的图形挖掘却不能够很轻易地完成
C. 主成分分析能在不明显丢失信息的情况下降低数据维度
D. 数据挖掘就是从处理过后的数据中进行知识提取
解析:数据挖掘是从大量的、不完全的、有噪声的、模糊的、随机的实际数据中,提取出蕴涵在其中的,人们事先不知道的,但是具有潜在有用性的信息和知识的过程。并非是从处理后的数据提取知识,D项错误,其他选项正确,答案ABC
A. 贝叶斯
B. 珀尔
C. 马尔可夫
D. 切比雪夫
A. 损失函数是用泰勒展式二项逼近,而GBDT只是一阶导数$;$对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;$节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的$;$XGBoost使用网格搜索,只能检测有限个值
解析:XGBoost类似于GBDT的优化版,不论是精度还是效率上都有了提升。与GBDT相比,具体的优点有:
1.损失函数是用泰勒展式二项逼近,而不是像GBDT里的就是一阶导数;
2.对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;
3.节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的。