APP下载
首页
>
财会金融
>
唐人街探案之秦风
搜索
唐人街探案之秦风
题目内容
(
单选题
)
下列关于随机变量的分布函数,分布律,密度函数的理解描述不正确的是?

A、离散型随机变量没有分布函数

B、密度函数只能描述连续型随机变量的取值规律。

C、分布函数描述随机变量的取值规律

D、分布律只能描述离散型随机变量的取值规律

答案:A

Scan me!
唐人街探案之秦风
感知器在空间中可以展现为?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6006.html
点击查看题目
以下说法正确的是( )
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6007.html
点击查看题目
下面哪项操作能实现跟神经网络中Dropout的类似效果?( )
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6008.html
点击查看题目
在线性回归算法中,我们认为误差项是符合什么分布的( )
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6009.html
点击查看题目
使用似然函数的目的是什么( )
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600a.html
点击查看题目
逻辑回归的损失函数是下列哪一种?( )
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600b.html
点击查看题目
假设在庞大的数据集上使用Logistic回归模型。可能遇到一个问题,logistics回归需要很长时间才能训练。如何提高训练速度?( )
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600c.html
点击查看题目
线性回归在 3 维以上的维度中拟合面是?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600d.html
点击查看题目
以下哪个关于监督式学习的说法是正确的?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600e.html
点击查看题目
梯度下降算法中,损失函数曲面上轨迹最混乱的算法是以下哪种算法?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600f.html
点击查看题目
首页
>
财会金融
>
唐人街探案之秦风
题目内容
(
单选题
)
手机预览
Scan me!
唐人街探案之秦风

下列关于随机变量的分布函数,分布律,密度函数的理解描述不正确的是?

A、离散型随机变量没有分布函数

B、密度函数只能描述连续型随机变量的取值规律。

C、分布函数描述随机变量的取值规律

D、分布律只能描述离散型随机变量的取值规律

答案:A

分享
Scan me!
唐人街探案之秦风
相关题目
感知器在空间中可以展现为?

A. 点

B. 线

C. 平面

D. 超平面

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6006.html
点击查看答案
以下说法正确的是( )

A. 神经网络可以用于多分类问题

B.
决策树只能用于二分类问题

C.
监督学习与无监督学习的主要区别是,监督学习的训练样本无标签

D. 分类任务的评价指标精确率和准确率是同一个概念

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6007.html
点击查看答案
下面哪项操作能实现跟神经网络中Dropout的类似效果?( )

A. Boosting

B. Bagging

C. Stacking

D. Mapping

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6008.html
点击查看答案
在线性回归算法中,我们认为误差项是符合什么分布的( )

A. 高斯分布

B. 均匀分布

C. 二项分布

D. 泊松分布

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da6009.html
点击查看答案
使用似然函数的目的是什么( )

A. 求解目标函数

B. 得到最优数据样本

C. 找到最合适数据的参数

D. 改变目标函数分布

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600a.html
点击查看答案
逻辑回归的损失函数是下列哪一种?( )

A. 平方损失函数

B. 对数损失函数

C. Hinge Loss 0-1 损失函数

D.
绝对值损失函数

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600b.html
点击查看答案
假设在庞大的数据集上使用Logistic回归模型。可能遇到一个问题,logistics回归需要很长时间才能训练。如何提高训练速度?( )

A. 降低学习率,减少迭代次数

B.
降低学习率,增加迭代次数

C.
提高学习率,增加迭代次数

D.
增加学习率,减少迭代次数

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600c.html
点击查看答案
线性回归在 3 维以上的维度中拟合面是?

A. 曲面

B. 平面

C. 超平面

D. 超曲面

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600d.html
点击查看答案
以下哪个关于监督式学习的说法是正确的?

A. 决策树是一种监督式学习

B. 监督式学习不可以使用交叉验证进行训练

C. 监督式学习是一种基于规则的算法

D. 监督式学习不需要标签就可以训练

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600e.html
点击查看答案
梯度下降算法中,损失函数曲面上轨迹最混乱的算法是以下哪种算法?

A. SGD

B. BGD

C. MGD

D. MBGD

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da600f.html
点击查看答案
试题通小程序
试题通app下载