A、求解目标函数
B、得到最优数据样本
C、找到最合适数据的参数
D、改变目标函数分布
答案:C
A、求解目标函数
B、得到最优数据样本
C、找到最合适数据的参数
D、改变目标函数分布
答案:C
A. 平方损失函数
B. 对数损失函数
C. Hinge Loss 0-1 损失函数
D.
绝对值损失函数
A. 降低学习率,减少迭代次数
B.
降低学习率,增加迭代次数
C.
提高学习率,增加迭代次数
D.
增加学习率,减少迭代次数
A. 曲面
B. 平面
C. 超平面
D. 超曲面
A. 决策树是一种监督式学习
B. 监督式学习不可以使用交叉验证进行训练
C. 监督式学习是一种基于规则的算法
D. 监督式学习不需要标签就可以训练
A. SGD
B. BGD
C. MGD
D. MBGD
A. GBDT 算法比随机森林容易欠拟合
B. 随机森林是并行计算的,而 GBDT 不能
C. GBDT 算法比随机森林容易过拟合
D. GBDT 与随机森林都是建立在 CART 树的基础之上的
A. GMM
B. Xgboost
C. 聚类
D. 关联规则
解析:Xgboost属于集成学习算法中的Boosting算法类别,
A. 过拟合
B. 可能过拟合可能欠拟合
C. 刚好拟合
D. 欠拟合
A. 人工程序
B. 神经网络
C. 训练算法
D. 历史数据
A. 梯度大小
B. 梯度方向
C. 学习率
D. 使用样本数