APP下载
首页
>
IT互联网
>
随便搞的题库做做
搜索
随便搞的题库做做
题目内容
(
单选题
)
关于神经网络的说法中,正确的是()

A、增加网络层数,总能减小训练集错误率$;$减小网络层数,总能减小测试集错误率$;$增加网络层数,可能增加测试集错误率$;$

答案:C

随便搞的题库做做
对分类问题,若类别数目为N,则最后一个全连接层的神经元数目必须为N
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-de80-c07f-52a228da6028.html
点击查看题目
按用途分类,专家系统可分为() 
https://www.shititong.cn/cha-kan/shiti/0005e939-dbd1-f110-c07f-52a228da600b.html
点击查看题目
DilatedConvolution意思是?
https://www.shititong.cn/cha-kan/shiti/0005e939-e59d-01a8-c07f-52a228da6022.html
点击查看题目
一个好的学习训练模型应该是()。
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-de80-c07f-52a228da6022.html
点击查看题目
传统科学计算中的建模方法可分为从()出发的建模和从数据出发的建模两类
https://www.shititong.cn/cha-kan/shiti/0005e939-eb78-a7d0-c07f-52a228da6037.html
点击查看题目
以下选项中对随机变量数值特征描述正确的是?
https://www.shititong.cn/cha-kan/shiti/0005e939-f894-6a08-c07f-52a228da6021.html
点击查看题目
哪些是XGBoost与GBDT相比具有的优点?
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-ee20-c07f-52a228da6028.html
点击查看题目
下列代码执行结果是什么?
x=1
defchange(a):
   x+=1
   printx
change(x)
https://www.shititong.cn/cha-kan/shiti/0005e939-eea4-f120-c07f-52a228da6004.html
点击查看题目
卷积神经网络中同一卷积层的所有卷积核是权重共享的。
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-da98-c07f-52a228da6025.html
点击查看题目
下面对误差反向传播 (error back propagation, BP)描述不正确的是
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-cee0-c07f-52a228da6033.html
点击查看题目
首页
>
IT互联网
>
随便搞的题库做做
题目内容
(
单选题
)
手机预览
随便搞的题库做做

关于神经网络的说法中,正确的是()

A、增加网络层数,总能减小训练集错误率$;$减小网络层数,总能减小测试集错误率$;$增加网络层数,可能增加测试集错误率$;$

答案:C

分享
随便搞的题库做做
相关题目
对分类问题,若类别数目为N,则最后一个全连接层的神经元数目必须为N
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-de80-c07f-52a228da6028.html
点击查看答案
按用途分类,专家系统可分为() 

A. 诊断型解释型$;$预测型决策型$;$设计型规划型$;$控制型调度型

https://www.shititong.cn/cha-kan/shiti/0005e939-dbd1-f110-c07f-52a228da600b.html
点击查看答案
DilatedConvolution意思是?

A. 空洞卷积$;$黑洞卷积$;$细节卷积$;$返向卷积

https://www.shititong.cn/cha-kan/shiti/0005e939-e59d-01a8-c07f-52a228da6022.html
点击查看答案
一个好的学习训练模型应该是()。

A. 模型应该简单(防止过拟合);$;$在训练时最小化错误率(提高在训练集上的准确率)$;$可以利用已知的数据特性,例如稀疏、低秩等$;$将模型函数正则化

https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-de80-c07f-52a228da6022.html
点击查看答案
传统科学计算中的建模方法可分为从()出发的建模和从数据出发的建模两类

A. 机理$;$检索$;$设计$;$存储

https://www.shititong.cn/cha-kan/shiti/0005e939-eb78-a7d0-c07f-52a228da6037.html
点击查看答案
以下选项中对随机变量数值特征描述正确的是?

A. 期望越大,方差越小
$;$方差反映的是随机变量和其数学期望之间的偏离程度
$;$期望反映的是随机变量取值的平均水平
$;$相关系数用来度量两个变量间的线性关系

https://www.shititong.cn/cha-kan/shiti/0005e939-f894-6a08-c07f-52a228da6021.html
点击查看答案
哪些是XGBoost与GBDT相比具有的优点?

A. 损失函数是用泰勒展式二项逼近,而GBDT只是一阶导数$;$对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;$节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的$;$XGBoost使用网格搜索,只能检测有限个值

https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-ee20-c07f-52a228da6028.html
点击查看答案
下列代码执行结果是什么?
x=1
defchange(a):
   x+=1
   printx
change(x)

A. 1$;$2$;$3$;$报错

https://www.shititong.cn/cha-kan/shiti/0005e939-eea4-f120-c07f-52a228da6004.html
点击查看答案
卷积神经网络中同一卷积层的所有卷积核是权重共享的。
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-da98-c07f-52a228da6025.html
点击查看答案
下面对误差反向传播 (error back propagation, BP)描述不正确的是

A. BP算法是一种将输出层误差反向传播给隐藏层进行参数更新的方法$;$BP算法将误差从后向前传递,获得各层单元所产生误差,进而依据这个误差来让各层单元修正各单元参数$;$对前馈神经网络而言,BP算法可调整相邻层神经元之间的连接权重大小$;$在BP算法中,每个神经元单元可包含不可偏导的映射函数

https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-cee0-c07f-52a228da6033.html
点击查看答案
试题通小程序
试题通app下载