APP下载
首页
>
财会金融
>
唐人街探案之秦风
搜索
唐人街探案之秦风
题目内容
(
单选题
)
以下说法正确的是( )

A、神经网络可以用于多分类问题

B、
决策树只能用于二分类问题

C、
监督学习与无监督学习的主要区别是,监督学习的训练样本无标签

D、分类任务的评价指标精确率和准确率是同一个概念

答案:A

Scan me!
唐人街探案之秦风
下面哪项操作能实现跟神经网络中Dropout的类似效果?( )
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6008.html
点击查看题目
在线性回归算法中,我们认为误差项是符合什么分布的( )
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6009.html
点击查看题目
使用似然函数的目的是什么( )
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600a.html
点击查看题目
逻辑回归的损失函数是下列哪一种?( )
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600b.html
点击查看题目
假设在庞大的数据集上使用Logistic回归模型。可能遇到一个问题,logistics回归需要很长时间才能训练。如何提高训练速度?( )
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600c.html
点击查看题目
线性回归在 3 维以上的维度中拟合面是?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600d.html
点击查看题目
以下哪个关于监督式学习的说法是正确的?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600e.html
点击查看题目
梯度下降算法中,损失函数曲面上轨迹最混乱的算法是以下哪种算法?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600f.html
点击查看题目
GBDT 算法相比于随机森林算法,以下哪种表述是错误的?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6010.html
点击查看题目
机器学习的算法中,以下哪个不是无监督学习?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6011.html
点击查看题目
首页
>
财会金融
>
唐人街探案之秦风
题目内容
(
单选题
)
手机预览
Scan me!
唐人街探案之秦风

以下说法正确的是( )

A、神经网络可以用于多分类问题

B、
决策树只能用于二分类问题

C、
监督学习与无监督学习的主要区别是,监督学习的训练样本无标签

D、分类任务的评价指标精确率和准确率是同一个概念

答案:A

分享
Scan me!
唐人街探案之秦风
相关题目
下面哪项操作能实现跟神经网络中Dropout的类似效果?( )

A. Boosting

B. Bagging

C. Stacking

D. Mapping

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6008.html
点击查看答案
在线性回归算法中,我们认为误差项是符合什么分布的( )

A. 高斯分布

B. 均匀分布

C. 二项分布

D. 泊松分布

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6009.html
点击查看答案
使用似然函数的目的是什么( )

A. 求解目标函数

B. 得到最优数据样本

C. 找到最合适数据的参数

D. 改变目标函数分布

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600a.html
点击查看答案
逻辑回归的损失函数是下列哪一种?( )

A. 平方损失函数

B. 对数损失函数

C. Hinge Loss 0-1 损失函数

D.
绝对值损失函数

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600b.html
点击查看答案
假设在庞大的数据集上使用Logistic回归模型。可能遇到一个问题,logistics回归需要很长时间才能训练。如何提高训练速度?( )

A. 降低学习率,减少迭代次数

B.
降低学习率,增加迭代次数

C.
提高学习率,增加迭代次数

D.
增加学习率,减少迭代次数

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600c.html
点击查看答案
线性回归在 3 维以上的维度中拟合面是?

A. 曲面

B. 平面

C. 超平面

D. 超曲面

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600d.html
点击查看答案
以下哪个关于监督式学习的说法是正确的?

A. 决策树是一种监督式学习

B. 监督式学习不可以使用交叉验证进行训练

C. 监督式学习是一种基于规则的算法

D. 监督式学习不需要标签就可以训练

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600e.html
点击查看答案
梯度下降算法中,损失函数曲面上轨迹最混乱的算法是以下哪种算法?

A. SGD

B. BGD

C. MGD

D. MBGD

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600f.html
点击查看答案
GBDT 算法相比于随机森林算法,以下哪种表述是错误的?

A. GBDT 算法比随机森林容易欠拟合

B. 随机森林是并行计算的,而 GBDT 不能

C. GBDT 算法比随机森林容易过拟合

D. GBDT 与随机森林都是建立在 CART 树的基础之上的

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6010.html
点击查看答案
机器学习的算法中,以下哪个不是无监督学习?

A. GMM

B. Xgboost

C. 聚类

D. 关联规则

解析:Xgboost属于集成学习算法中的Boosting算法类别,

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6011.html
点击查看答案
试题通小程序
试题通app下载