APP下载
首页
>
IT互联网
>
计算机知识技术题库
搜索
计算机知识技术题库
题目内容
(
判断题
)
误差逆传播算法(BP)仅可用于多层前馈神经网络的学习算法

答案:B

解析: BP 算法不仅可用于多层前馈神经网络,还可用于其他类型的神经网络.

计算机知识技术题库
根据技术架构不同,人工智能芯片可分为()
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e9-1d40-c021-5dd340f22416.html
点击查看题目
图像分类是图像分割和目标检测等诸多计算机视觉任务的基础
https://www.shititong.cn/cha-kan/shiti/0005e5d0-b2fe-f970-c021-5dd340f22428.html
点击查看题目
Python中单下划线_foo可以直接用于’from module import *’
https://www.shititong.cn/cha-kan/shiti/0005e5d0-af1d-fa68-c021-5dd340f2241f.html
点击查看题目
归结原理的特点是(___)
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e8-f630-c021-5dd340f22413.html
点击查看题目
冯诺依曼原理是计算机的唯一工作原理
https://www.shititong.cn/cha-kan/shiti/0005e5d0-af1d-fa68-c021-5dd340f22438.html
点击查看题目
集成学习中不同的多样性增强机制不可同时使用。
https://www.shititong.cn/cha-kan/shiti/0005e5d0-af1d-eeb0-c021-5dd340f22407.html
点击查看题目
已知x=[3,5,7],那么表达式x[-1::-1]的值为( )。
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a626-2fc0-c021-5dd340f22406.html
点击查看题目
文本分类模型组成部分的正确顺序是: 1. 文本清理(Text cleaning) 2. 文本标注(Text annotation) 3. 梯度下降(Gradient descent) 4. 模型调优(Model tuning) 5. 文本到预测器(Text to predictors)
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e9-09b8-c021-5dd340f2241e.html
点击查看题目
机器学习训练时,Mini-Batch的大小优选为2的幂,如256或512。它背后的原因是什么?()
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a626-4348-c021-5dd340f2241e.html
点击查看题目
下列关于长短期记忆网络LSTM和循环神经网络RNN的关系描述正确的是()。
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e8-cf20-c021-5dd340f22403.html
点击查看题目
首页
>
IT互联网
>
计算机知识技术题库
题目内容
(
判断题
)
手机预览
计算机知识技术题库

误差逆传播算法(BP)仅可用于多层前馈神经网络的学习算法

答案:B

解析: BP 算法不仅可用于多层前馈神经网络,还可用于其他类型的神经网络.

分享
计算机知识技术题库
相关题目
根据技术架构不同,人工智能芯片可分为()

A. 通用类芯片(比如CPU和GPU)

B. 基于FPGA的半定制化芯片

C. 全定制化ASIC芯片

D. 类脑计算芯片

解析:基础概念

https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e9-1d40-c021-5dd340f22416.html
点击查看答案
图像分类是图像分割和目标检测等诸多计算机视觉任务的基础
https://www.shititong.cn/cha-kan/shiti/0005e5d0-b2fe-f970-c021-5dd340f22428.html
点击查看答案
Python中单下划线_foo可以直接用于’from module import *’
https://www.shititong.cn/cha-kan/shiti/0005e5d0-af1d-fa68-c021-5dd340f2241f.html
点击查看答案
归结原理的特点是(___)

A. 发明新的概念和关系

B. 发现更多的规则

C. 缓解过拟合的风险

D. 将复杂的逻辑规则与背景知识联系起来化繁为简

解析:见算法解析

https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e8-f630-c021-5dd340f22413.html
点击查看答案
冯诺依曼原理是计算机的唯一工作原理
https://www.shititong.cn/cha-kan/shiti/0005e5d0-af1d-fa68-c021-5dd340f22438.html
点击查看答案
集成学习中不同的多样性增强机制不可同时使用。

解析:不同的多样性增强机制可同时使用

https://www.shititong.cn/cha-kan/shiti/0005e5d0-af1d-eeb0-c021-5dd340f22407.html
点击查看答案
已知x=[3,5,7],那么表达式x[-1::-1]的值为( )。

A. [3]

B. [5,3]

C. [7,5]

D. [7,5,3]

https://www.shititong.cn/cha-kan/shiti/0005e5d0-a626-2fc0-c021-5dd340f22406.html
点击查看答案
文本分类模型组成部分的正确顺序是: 1. 文本清理(Text cleaning) 2. 文本标注(Text annotation) 3. 梯度下降(Gradient descent) 4. 模型调优(Model tuning) 5. 文本到预测器(Text to predictors)

A. 12345

B. 13425

C. 12534

D. 13452

https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e9-09b8-c021-5dd340f2241e.html
点击查看答案
机器学习训练时,Mini-Batch的大小优选为2的幂,如256或512。它背后的原因是什么?()

A. Mini-Batch 为偶数的时候,梯度下降算法训练的更快

B. Mini-Batch 设为2的幂,是为了符合 CPU、GPU 的内存要求,利于并行化处理

C. 不使用偶数时,损失函数是不稳定的

D. 以上说法都不对

https://www.shititong.cn/cha-kan/shiti/0005e5d0-a626-4348-c021-5dd340f2241e.html
点击查看答案
下列关于长短期记忆网络LSTM和循环神经网络RNN的关系描述正确的是()。

A. LSTM是简化版的RNN

B. LSTM是双向的RNN

C. LSTM是多层的RNN

D. LSTM是RNN的扩展,通过特殊的结构设计来避免长期依赖问题

解析:LSTM是RNN的扩展,通过特殊的结构设计来避免长期依赖问题

https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e8-cf20-c021-5dd340f22403.html
点击查看答案
试题通小程序
试题通app下载