A、卡方检验
B、信息增益
C、数据采样
D、期望交叉熵
答案:C
A、卡方检验
B、信息增益
C、数据采样
D、期望交叉熵
答案:C
A. 隐层层数增加,模型能力增加
B. Dropout的比例增加,模型能力增加
C. 学习率增加,模型能力增加
D. 都不正确
A.
回归
B. 二分类
C. 多分类
D. 目标检测
解析:BineryCrossEntropy可作为二分类问题的loss函数
A. 添加正则化项
B. 降低模型复杂度
C. 减少训练数据量
D. 使用Dropout
解析:应增加训练数据以降低过拟合
A. 特征在传统机器学习可解释性强,而在深度学习可解释性弱
B. 特征在传统机器学习可解释性弱,而在深度学习可解释性强
C. 特征在传统机器学习和深度学习可解释性均弱
D. 特征在传统机器学习和深度学习可解释性均强
A. Boosting
B. Stacking
C. Bagging
D. Marking
A. 相加关系
B. 相关关系
C. 后面的模型必须建立在前面的模型之上
D. 相互独立
A. 剪枝
B. 特征选取
C. 数据清理
D. 决策树生成
A. SGD
B. BGD
C. MGD
D. MBGD
A. GMM
B. Xgboost
C. 聚类
D. 关联规则
A. 人工程序
B. 神经网络
C. 训练算法
D. 历史数据