APP下载
首页
>
IT互联网
>
计算机知识技术题库
搜索
计算机知识技术题库
题目内容
(
单选题
)
以下哪种神经网络引入了残差网络结构?

A、LeNet

B、AlexNet

C、VGG

D、ResNet

答案:D

解析:ResNet网络是参考了VGG19网络,在其基础上进行了修改,并通过短路机制加入了残差单元

计算机知识技术题库
下列方法中,能够返回某个字串在字符串中出现的次数的是(    )。
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a626-27f0-c021-5dd340f22420.html
点击查看题目
关于随机填补说法正确的是()
https://www.shititong.cn/cha-kan/shiti/0005e5d0-af1d-b418-c021-5dd340f22402.html
点击查看题目
Boosting算法要求基学习器能对特定的数据分布进行学习,可通过()实施,对无法接受带权样本的基学习算法,则可通过()来处理
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a625-e970-c021-5dd340f22425.html
点击查看题目
数据归一化是非常重要的预处理步骤,用于重新缩放输入的数值以适应特定的范围,从而确保在反向传播期间更好地收敛。
https://www.shititong.cn/cha-kan/shiti/0005e5d0-b2fe-da30-c021-5dd340f22433.html
点击查看题目
关于神经网络的说法中,正确的是()
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e8-ea78-c021-5dd340f22411.html
点击查看题目
Relu激活函数能解决梯度消失问题,但是会出现dyingrelu现象,即训练过程中,有些神经元实际上已经"死亡“而不再输出任何数值
https://www.shititong.cn/cha-kan/shiti/0005e5d0-b2fe-da30-c021-5dd340f2242c.html
点击查看题目
下列哪部分不是专家系统的组成部分()
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a625-e1a0-c021-5dd340f2240c.html
点击查看题目
哪些项属于集成学习?
https://www.shititong.cn/cha-kan/shiti/0005e5d0-af1d-bfd0-c021-5dd340f22407.html
点击查看题目
卷积核与特征图的通道数的关系是:
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e8-e690-c021-5dd340f2240c.html
点击查看题目
人工神经网络学习中()主要采用反向传播算法。
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a626-04c8-c021-5dd340f22419.html
点击查看题目
首页
>
IT互联网
>
计算机知识技术题库
题目内容
(
单选题
)
手机预览
计算机知识技术题库

以下哪种神经网络引入了残差网络结构?

A、LeNet

B、AlexNet

C、VGG

D、ResNet

答案:D

解析:ResNet网络是参考了VGG19网络,在其基础上进行了修改,并通过短路机制加入了残差单元

分享
计算机知识技术题库
相关题目
下列方法中,能够返回某个字串在字符串中出现的次数的是(    )。

A. len()

B. count()

C. find()

D. split()

https://www.shititong.cn/cha-kan/shiti/0005e5d0-a626-27f0-c021-5dd340f22420.html
点击查看答案
关于随机填补说法正确的是()

A. 随机填补是在均值填补的基础上加上随机项

B. 通过增加缺失值的随机性来改善缺失值分布过于集中的缺陷

C. 可采用贝叶斯 Bootstrap 方法

D. 以上说的都不对

https://www.shititong.cn/cha-kan/shiti/0005e5d0-af1d-b418-c021-5dd340f22402.html
点击查看答案
Boosting算法要求基学习器能对特定的数据分布进行学习,可通过()实施,对无法接受带权样本的基学习算法,则可通过()来处理

A. 重赋权法, 重采样法

B. 重采样法,重赋权法

C. 赋权法, 采样法

D. 采样法, 赋权法

https://www.shititong.cn/cha-kan/shiti/0005e5d0-a625-e970-c021-5dd340f22425.html
点击查看答案
数据归一化是非常重要的预处理步骤,用于重新缩放输入的数值以适应特定的范围,从而确保在反向传播期间更好地收敛。

解析:正确

https://www.shititong.cn/cha-kan/shiti/0005e5d0-b2fe-da30-c021-5dd340f22433.html
点击查看答案
关于神经网络的说法中,正确的是()

A. 增加网络层数,总能减小训练集错误率

B. 减小网络层数,总能减小测试集错误率

C. 增加网络层数,可能增加测试集错误率

解析:增加网络层数,可能增加测试集错误率

https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e8-ea78-c021-5dd340f22411.html
点击查看答案
Relu激活函数能解决梯度消失问题,但是会出现dyingrelu现象,即训练过程中,有些神经元实际上已经"死亡“而不再输出任何数值

解析:正确

https://www.shititong.cn/cha-kan/shiti/0005e5d0-b2fe-da30-c021-5dd340f2242c.html
点击查看答案
下列哪部分不是专家系统的组成部分()

A. 用户

B. 综合数据库

C. 推理机

D. 知识库

https://www.shititong.cn/cha-kan/shiti/0005e5d0-a625-e1a0-c021-5dd340f2240c.html
点击查看答案
哪些项属于集成学习?

A. Knn

B. Adaboost

C.
随机森林
XGBoost

https://www.shititong.cn/cha-kan/shiti/0005e5d0-af1d-bfd0-c021-5dd340f22407.html
点击查看答案
卷积核与特征图的通道数的关系是:

A. 卷积核数量越多特征图通道数越少

B. 卷积核size越大特征图通道数越多

C. 卷积核数量越多特征图通道数越多

D. 二者没有关系

解析:卷积核数量越多特征图通道数越多

https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e8-e690-c021-5dd340f2240c.html
点击查看答案
人工神经网络学习中()主要采用反向传播算法。

A. 单元学习算法

B. 多层网络学习

C. 决策树学习

D. 概念学习

https://www.shititong.cn/cha-kan/shiti/0005e5d0-a626-04c8-c021-5dd340f22419.html
点击查看答案
试题通小程序
试题通app下载