APP下载
首页
>
财会金融
>
唐人街探案之秦风
搜索
唐人街探案之秦风
题目内容
(
单选题
)
使用似然函数的目的是什么( )

A、求解目标函数

B、得到最优数据样本

C、找到最合适数据的参数

D、改变目标函数分布

答案:C

Scan me!
唐人街探案之秦风
逻辑回归的损失函数是下列哪一种?( )
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600b.html
点击查看题目
假设在庞大的数据集上使用Logistic回归模型。可能遇到一个问题,logistics回归需要很长时间才能训练。如何提高训练速度?( )
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600c.html
点击查看题目
线性回归在 3 维以上的维度中拟合面是?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600d.html
点击查看题目
以下哪个关于监督式学习的说法是正确的?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600e.html
点击查看题目
梯度下降算法中,损失函数曲面上轨迹最混乱的算法是以下哪种算法?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600f.html
点击查看题目
GBDT 算法相比于随机森林算法,以下哪种表述是错误的?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6010.html
点击查看题目
机器学习的算法中,以下哪个不是无监督学习?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6011.html
点击查看题目
如果一个模型在测试集上偏差很大,方差很小,则说明该模型?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6012.html
点击查看题目
机器学习中,模型需要输入什么来训练自身,预测未知?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6013.html
点击查看题目
批量梯度下降,小批量梯度下降,随机梯度下降最重要的区别在哪里?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6014.html
点击查看题目
首页
>
财会金融
>
唐人街探案之秦风
题目内容
(
单选题
)
手机预览
Scan me!
唐人街探案之秦风

使用似然函数的目的是什么( )

A、求解目标函数

B、得到最优数据样本

C、找到最合适数据的参数

D、改变目标函数分布

答案:C

分享
Scan me!
唐人街探案之秦风
相关题目
逻辑回归的损失函数是下列哪一种?( )

A. 平方损失函数

B. 对数损失函数

C. Hinge Loss 0-1 损失函数

D.
绝对值损失函数

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600b.html
点击查看答案
假设在庞大的数据集上使用Logistic回归模型。可能遇到一个问题,logistics回归需要很长时间才能训练。如何提高训练速度?( )

A. 降低学习率,减少迭代次数

B.
降低学习率,增加迭代次数

C.
提高学习率,增加迭代次数

D.
增加学习率,减少迭代次数

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600c.html
点击查看答案
线性回归在 3 维以上的维度中拟合面是?

A. 曲面

B. 平面

C. 超平面

D. 超曲面

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600d.html
点击查看答案
以下哪个关于监督式学习的说法是正确的?

A. 决策树是一种监督式学习

B. 监督式学习不可以使用交叉验证进行训练

C. 监督式学习是一种基于规则的算法

D. 监督式学习不需要标签就可以训练

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600e.html
点击查看答案
梯度下降算法中,损失函数曲面上轨迹最混乱的算法是以下哪种算法?

A. SGD

B. BGD

C. MGD

D. MBGD

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600f.html
点击查看答案
GBDT 算法相比于随机森林算法,以下哪种表述是错误的?

A. GBDT 算法比随机森林容易欠拟合

B. 随机森林是并行计算的,而 GBDT 不能

C. GBDT 算法比随机森林容易过拟合

D. GBDT 与随机森林都是建立在 CART 树的基础之上的

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6010.html
点击查看答案
机器学习的算法中,以下哪个不是无监督学习?

A. GMM

B. Xgboost

C. 聚类

D. 关联规则

解析:Xgboost属于集成学习算法中的Boosting算法类别,

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6011.html
点击查看答案
如果一个模型在测试集上偏差很大,方差很小,则说明该模型?

A. 过拟合

B. 可能过拟合可能欠拟合

C. 刚好拟合

D. 欠拟合

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6012.html
点击查看答案
机器学习中,模型需要输入什么来训练自身,预测未知?

A. 人工程序

B. 神经网络

C. 训练算法

D. 历史数据

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6013.html
点击查看答案
批量梯度下降,小批量梯度下降,随机梯度下降最重要的区别在哪里?

A. 梯度大小

B. 梯度方向

C. 学习率

D. 使用样本数

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6014.html
点击查看答案
试题通小程序
试题通app下载