APP下载
首页
>
财会金融
>
唐人街探案之秦风
搜索
唐人街探案之秦风
题目内容
(
多选题
)
关于信息熵,下列说法正确的是。

A、变量的不确定性越大,熵也就越大

B、一个系统越是有序,信息熵就越高

C、信息熵也可以说是系统有序化程度的一个度量

D、信息熵是对信息源整体不确定性的度量

答案:ACD

解析:信息熵,描述信息源各可能事件发生的不确定性.来源于热力学第二定律,一个系统越是有序,信息熵就越低;反之,一个系统越是混乱,信息熵就越高。所以,信息熵也可以说是系统有序化程度的一个度量。答案ACD

唐人街探案之秦风
以下关于回归算法描述中不正确的是
https://www.shititong.cn/cha-kan/shiti/0005e9f1-2242-45c0-c07f-52a228da6001.html
点击查看题目
对于图像识别问题(比如识别照片中的猫),神经网络模型结构更适合解决哪类问题?
https://www.shititong.cn/cha-kan/shiti/0005e9f8-7427-0dd8-c07f-52a228da6011.html
点击查看题目
 假设你需要调整超参数来最小化代价函数(cost function),会使用下列哪项技术?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-eb28-c07f-52a228da6020.html
点击查看题目
超父为假设所以属性都依赖于同一个属性
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-48e8-c07f-52a228da6035.html
点击查看题目
关于神经网络中经典使用的优化器,以下说法正确的是?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-e740-c07f-52a228da600c.html
点击查看题目
线性模型的基本形式有()
https://www.shititong.cn/cha-kan/shiti/0005e9f1-2242-5560-c07f-52a228da600f.html
点击查看题目
假如你在训练一个线性回归模型,有下面两句话:①如果数据量较少,容易发生过拟合。②如果假设空间较小,容易发生过拟合。关于这两句话,下列说法正确的是?
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-bbc0-c07f-52a228da6003.html
点击查看题目
数据挖掘的实质是知识发现的过程,总是我类说,知识发现分为()3个步骤。
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-d330-c07f-52a228da6010.html
点击查看题目
深度学习的步骤:()、()、()
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-4118-c07f-52a228da601c.html
点击查看题目
哪些技术是RCNN采用而FasterRCNN没有用?()
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-3560-c07f-52a228da600d.html
点击查看题目
首页
>
财会金融
>
唐人街探案之秦风
题目内容
(
多选题
)
手机预览
唐人街探案之秦风

关于信息熵,下列说法正确的是。

A、变量的不确定性越大,熵也就越大

B、一个系统越是有序,信息熵就越高

C、信息熵也可以说是系统有序化程度的一个度量

D、信息熵是对信息源整体不确定性的度量

答案:ACD

解析:信息熵,描述信息源各可能事件发生的不确定性.来源于热力学第二定律,一个系统越是有序,信息熵就越低;反之,一个系统越是混乱,信息熵就越高。所以,信息熵也可以说是系统有序化程度的一个度量。答案ACD

分享
唐人街探案之秦风
相关题目
以下关于回归算法描述中不正确的是

A. 最小二乘法可以求解线性回归问题

B. 梯度下降法可以求解线性回归问题

C. 利用最小二乘法求解线性回归问题可能会出现局部最优解

D. 学习率是梯度下降法的重要参数

解析:线性最小二乘问题通过法方程解出来的一定是全局最优解, 事实上这是二次泛函的优化问题(更一般一点, 这是凸优化), 不会出现多个孤立的局部最优解

https://www.shititong.cn/cha-kan/shiti/0005e9f1-2242-45c0-c07f-52a228da6001.html
点击查看答案
对于图像识别问题(比如识别照片中的猫),神经网络模型结构更适合解决哪类问题?

A. 多层感知器

B. 卷积神经网络

C. 循环神经网络

D. 感知器

https://www.shititong.cn/cha-kan/shiti/0005e9f8-7427-0dd8-c07f-52a228da6011.html
点击查看答案
 假设你需要调整超参数来最小化代价函数(cost function),会使用下列哪项技术?

A. 穷举搜索

B. 随机搜索

C. Bayesian优化

D. 都可以

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-eb28-c07f-52a228da6020.html
点击查看答案
超父为假设所以属性都依赖于同一个属性

解析:正确

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-48e8-c07f-52a228da6035.html
点击查看答案
关于神经网络中经典使用的优化器,以下说法正确的是?

A. Adam的收敛速度比RMSprop慢

B. 相比于SGD或RMSprop等优化器,Adam的收敛效果是最好的

C. 对于轻量级神经网络,使用Adam比使用RMSprop更合适

D. 相比于Adam或RMSprop等优化器,SGD的收敛效果是最好的

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-e740-c07f-52a228da600c.html
点击查看答案
线性模型的基本形式有()

A. 多分类学习

B. 对数几率回归

C. Fisher判别分析

D. 多分类学习

解析:数学基础

https://www.shititong.cn/cha-kan/shiti/0005e9f1-2242-5560-c07f-52a228da600f.html
点击查看答案
假如你在训练一个线性回归模型,有下面两句话:①如果数据量较少,容易发生过拟合。②如果假设空间较小,容易发生过拟合。关于这两句话,下列说法正确的是?

A. ①和②都错误

B. ①正确,②错误

C. ①错误,②正确

D. ①和②都正确

https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-bbc0-c07f-52a228da6003.html
点击查看答案
数据挖掘的实质是知识发现的过程,总是我类说,知识发现分为()3个步骤。

A. 数据预处理

B. 异常记录

C. 规律寻找

D. 知识表示

https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-d330-c07f-52a228da6010.html
点击查看答案
深度学习的步骤:()、()、()

A. 效果评估

B. 建立模型

C. 损失函数

D. 参数学习

解析:见算法解析

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-4118-c07f-52a228da601c.html
点击查看答案
哪些技术是RCNN采用而FasterRCNN没有用?()

A. SVM分类

B. 使用SelectiveSearch输出候选框

C. 使用MLP进行分类与回归预测

D. 使用ROIpooling

解析:见算法解析

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-3560-c07f-52a228da600d.html
点击查看答案
试题通小程序
试题通app下载