APP下载
首页
>
财会金融
>
机器理论知识题库
搜索
机器理论知识题库
题目内容
(
多选题
)
320.卷积神经网络中的池化层可以减小下层输入的尺寸,常见的池化有:

A、 最小池化层

B、 最大池化层

C、 平均池化层

D、 乘积池化层

答案:BC

机器理论知识题库
1、自动驾驶场景下,涉及到的人工智能要素包含以下哪些选项?多
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-74b2-c0d7-b77d19146f00.html
点击查看题目
114.Relu函数在深度学习神经网络中经常被用到,该函数的取值范围是
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-fc21-c0d7-b77d19146f00.html
点击查看题目
305.以下关于随机梯度下降和小批量梯度下降的描述,正确的是哪些项?
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-9b0a-c0d7-b77d19146f00.html
点击查看题目
1、深度学习神经网络比较容易出现过拟合问题,以下哪些选项可能导致过拟合问题?(多)
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-a3c8-c0d7-b77d19146f00.html
点击查看题目
1、以下哪一个选项不属于知识图谱的构建流程?(单)
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-792a-c0d7-b77d19146f00.html
点击查看题目
1、()是一类通用并且计算简洁的正则化方法,指在训练过程中,随机的丢弃一部分输入,此时丢弃部分对应的参数不会更新。(请输入英文)
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-a198-c0d7-b77d19146f00.html
点击查看题目
273.On-Device执行,即整图卸载执行,充分发挥异腾芯片的算力,可以大大降低交On-Device执行,即整图卸载执行,充分发挥异腾芯片的算力,可以大大降低交互的开销,从而提升加速器占用率,关于0n-Device执行以下描述错误的是?
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-81b0-c0d7-b77d19146f00.html
点击查看题目
7.“批量推理是对批量数据进行推理的批量作业,使用批量推理之前,不需要对模型进行训练。”关于上述描述,以下哪一个说法是正确的?
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-8f7e-c0d7-b77d19146f00.html
点击查看题目
75.Atlas900AI集群可适用于石油勘探场
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-d3b3-c0d7-b77d19146f00.html
点击查看题目
1、请匹配以下任务和它们对应的循环神经网络类型:以下哪些选项属于通用量子算法?(多)
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-88f2-c0d7-b77d19146f00.html
点击查看题目
首页
>
财会金融
>
机器理论知识题库
题目内容
(
多选题
)
手机预览
机器理论知识题库

320.卷积神经网络中的池化层可以减小下层输入的尺寸,常见的池化有:

A、 最小池化层

B、 最大池化层

C、 平均池化层

D、 乘积池化层

答案:BC

分享
机器理论知识题库
相关题目
1、自动驾驶场景下,涉及到的人工智能要素包含以下哪些选项?多

A. 数据

B. 算力

C. 算法

D. 思考能力

https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-74b2-c0d7-b77d19146f00.html
点击查看答案
114.Relu函数在深度学习神经网络中经常被用到,该函数的取值范围是

A. [0,1]

B. [0,+∞)

C. [-1,0]

D. [-1,1]

https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-fc21-c0d7-b77d19146f00.html
点击查看答案
305.以下关于随机梯度下降和小批量梯度下降的描述,正确的是哪些项?

A. 随机样度下降的不稳定性可以帮助模型在收敛中跳过一些局部极值点

B. 小批量梯度下降相比于随机梯度下降更容易受到噪声数据的影响

C. 随机梯度下降的一种实现是在线学习(OnlineLearning),它根据每一个样例来更新葆度

D. 小批量梯度下降的思想是每次使用一小批固定尺寸(BatchSize)的样例来更新权值

解析:解析:随机梯度下降更容易受到噪音的影响。

https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-9b0a-c0d7-b77d19146f00.html
点击查看答案
1、深度学习神经网络比较容易出现过拟合问题,以下哪些选项可能导致过拟合问题?(多)

A. 使用Sigmoid激活函数

B. 隐藏层数过多

C. 数据集样本数目少

D. 使用正则项

https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-a3c8-c0d7-b77d19146f00.html
点击查看答案
1、以下哪一个选项不属于知识图谱的构建流程?(单)

A. 创造新的概念

B. 数据获取

C. 知识融合

D. 确定知识图谱面向的领域

https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-792a-c0d7-b77d19146f00.html
点击查看答案
1、()是一类通用并且计算简洁的正则化方法,指在训练过程中,随机的丢弃一部分输入,此时丢弃部分对应的参数不会更新。(请输入英文)
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-a198-c0d7-b77d19146f00.html
点击查看答案
273.On-Device执行,即整图卸载执行,充分发挥异腾芯片的算力,可以大大降低交On-Device执行,即整图卸载执行,充分发挥异腾芯片的算力,可以大大降低交互的开销,从而提升加速器占用率,关于0n-Device执行以下描述错误的是?

A. 11Reduce,数据驱动方法自主A11Reduce,无控制开销

B. 超强芯片算力下模型执行的挑战:内存墙问题、交互开销大、数据供给难。部分在Host执行,部分在Device执行,交互开销甚至远大于执行开销,导致加速器占用率低

C. MindSpore通过面向芯片的深度图优化技术,同步等待少,最大化“数据计算通信”的并行度,训练性能相比Host侧图调度方式持平

D. 超强芯片算力下分布式梯度聚合的挑战:ReslNet50单迭代20ms时间时会产生中心控制的同步开销和频繁同步的通信开销。传统方法需要3次同步完成

https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-81b0-c0d7-b77d19146f00.html
点击查看答案
7.“批量推理是对批量数据进行推理的批量作业,使用批量推理之前,不需要对模型进行训练。”关于上述描述,以下哪一个说法是正确的?

A. 该描述错误批量推理不需要训练操作

B. 该描述错误推理之前要对模型进行训练才可以

C. 该猫述正确推理意味着训练结束

D. 该猫述正确批量推理就是不需要再训练了

解析:解析:批量推理需要对模型进行训练,以便能够对批量数据进行推理。在进行批量推理之前,通常需要先使用已经训练好的模型来进行推理。模型的训练是为了让模型学习到数据的特征和模式,从而能够对新的数据进行准确的推理。批量推理是指对一批数据同时进行推理,以提高推理的效率和速度,但这并不意味着可以在没有训练模型的情况下进行批量推理

https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-8f7e-c0d7-b77d19146f00.html
点击查看答案
75.Atlas900AI集群可适用于石油勘探场
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-d3b3-c0d7-b77d19146f00.html
点击查看答案
1、请匹配以下任务和它们对应的循环神经网络类型:以下哪些选项属于通用量子算法?(多)

A. HHL算法

B. Shor算法

C. Grover算法

D. A*算法

https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-88f2-c0d7-b77d19146f00.html
点击查看答案
试题通小程序
试题通app下载