答案:B
答案:B
A. 构建协方差矩阵
B. 矩阵分解得到特征值和特征向量
C. 特征值排序
D. 特征值归一化
A. 损失函数是用泰勒展式二项逼近,而GBDT只是一阶导数
B. 对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;$节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的
C. XGBoost使用网格搜索,只能检测有限个值
解析:XGBoost类似于GBDT的优化版,不论是精度还是效率上都有了提升。与GBDT相比,具体的优点有:
1.损失函数是用泰勒展式二项逼近,而不是像GBDT里的就是一阶导数;
2.对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;
3.节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的。
A. 特征选择嵌入法
B. 无监督学习
C. 监督学习
D. 特征选择过滤法
A. MTCNN
B. FasterRCNN
C. MaskRCNN
D. AlexNet
解析:见算法解析
A. 前向神经网络
B. 反馈神经网络
C. 自组织神经网络
D. 生物神经网络
解析:神经网络可以分为4种类型,前向型、反馈型、随机型、自组织型。
A. JPG
B. png
C. GIF
D. BMP
解析:主要应用
解析:通过矩阵的奇异值分解到达降维的目的
A. 医学诊断;
B. 人脸认证;
C. 辅助驾驶;
D. 广告营销
解析:见算法解析
A. 大数据技术
B. 物联网技术
C. 数据挖掘技术
D. 人工智能技术
A. 修理专家系统
B. 预测专家系统
C. 调试专家系统
D. 规划专家系统