APP下载
首页
>
财会金融
>
唐人街探案之秦风
搜索
唐人街探案之秦风
题目内容
(
单选题
)
GBDT 算法相比于随机森林算法,以下哪种表述是错误的?

A、GBDT 算法比随机森林容易欠拟合

B、随机森林是并行计算的,而 GBDT 不能

C、GBDT 算法比随机森林容易过拟合

D、GBDT 与随机森林都是建立在 CART 树的基础之上的

答案:C

唐人街探案之秦风
机器学习的算法中,以下哪个不是无监督学习?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6011.html
点击查看题目
如果一个模型在测试集上偏差很大,方差很小,则说明该模型?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6012.html
点击查看题目
机器学习中,模型需要输入什么来训练自身,预测未知?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6013.html
点击查看题目
批量梯度下降,小批量梯度下降,随机梯度下降最重要的区别在哪里?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6014.html
点击查看题目
以下属于回归算法的评价指标是?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6015.html
点击查看题目
以下关于机器学习描述正确的是?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6016.html
点击查看题目
前馈神经网络是一种简单的神经网络,各神经元分层排列,是目前应用最广泛,发展最迅速的人工神经网络之一。 以下关于前馈神经网络说法正确的是:
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6017.html
点击查看题目
神将网络训练时,常会遇到很多问题,对于梯度消失问题,我们可以通过选择使用以下哪种函数减轻该问题?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6018.html
点击查看题目
L1 和 L2 正则化是传统机器学习常用来减少泛化误差的方法,以下关于两者的说法正确的是:
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6019.html
点击查看题目
关于递归函数基例的说明,以下选项中错误的是
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da601a.html
点击查看题目
首页
>
财会金融
>
唐人街探案之秦风
题目内容
(
单选题
)
手机预览
唐人街探案之秦风

GBDT 算法相比于随机森林算法,以下哪种表述是错误的?

A、GBDT 算法比随机森林容易欠拟合

B、随机森林是并行计算的,而 GBDT 不能

C、GBDT 算法比随机森林容易过拟合

D、GBDT 与随机森林都是建立在 CART 树的基础之上的

答案:C

分享
唐人街探案之秦风
相关题目
机器学习的算法中,以下哪个不是无监督学习?

A. GMM

B. Xgboost

C. 聚类

D. 关联规则

解析:Xgboost属于集成学习算法中的Boosting算法类别,

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6011.html
点击查看答案
如果一个模型在测试集上偏差很大,方差很小,则说明该模型?

A. 过拟合

B. 可能过拟合可能欠拟合

C. 刚好拟合

D. 欠拟合

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6012.html
点击查看答案
机器学习中,模型需要输入什么来训练自身,预测未知?

A. 人工程序

B. 神经网络

C. 训练算法

D. 历史数据

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6013.html
点击查看答案
批量梯度下降,小批量梯度下降,随机梯度下降最重要的区别在哪里?

A. 梯度大小

B. 梯度方向

C. 学习率

D. 使用样本数

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6014.html
点击查看答案
以下属于回归算法的评价指标是?

A. 召回率

B. 混淆矩阵

C. 均方误差

D. 准确率

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6015.html
点击查看答案
以下关于机器学习描述正确的是?

A. 深度学习是机器学习的一个分支

B.
深度学习与机器学习是互相包含的关系

C. 深度学习与机器学习同属于人工智能但相互之间没有关系

D. 以上都不对

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6016.html
点击查看答案
前馈神经网络是一种简单的神经网络,各神经元分层排列,是目前应用最广泛,发展最迅速的人工神经网络之一。 以下关于前馈神经网络说法正确的是:

A. 具备计算能力的神经元与上下两层相连

B. 其输入节点具备计算能力

C. 同一层神经元相互连接

D. 层间信息只沿个方向传递

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6017.html
点击查看答案
神将网络训练时,常会遇到很多问题,对于梯度消失问题,我们可以通过选择使用以下哪种函数减轻该问题?

A. Relu 函数

B. Sigmoid 函数

C. tanh 函数

D. Softsign 函数

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6018.html
点击查看答案
L1 和 L2 正则化是传统机器学习常用来减少泛化误差的方法,以下关于两者的说法正确的是:

A. L1 正则化可以做特征选择

B. L1 和 L2 正则化均可做特征选择

C. L2 正则化可以做特征选择

D. L1 和 L2 正则化均不可做特征选择

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6019.html
点击查看答案
关于递归函数基例的说明,以下选项中错误的是

A. 递归函数必须有基例

B.
递归函数的基例不再进行递归

C.
每个递归函数都只能有一个基例

D.
递归函数的基例决定递归的深度

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da601a.html
点击查看答案
试题通小程序
试题通app下载