APP下载
首页
>
财会金融
>
唐人街探案之秦风
搜索
唐人街探案之秦风
题目内容
(
单选题
)
关于级联相关网络描述错误的是

A、属于结构自适应网络,网络结构也是其优化目标

B、主要成分为级联、相关、归约

C、无需设置网络层数、隐层神经元数目

D、训练速度快,但数据较小时容易陷入过拟合

答案:B

解析:级联相关网络有两个主要成分“级联”和“相关”级联是指建立层次连接的层级结构,在开始训练时,网络只有输入层和输出层,处于最小拓扑结构;随着训练的进行,新的隐层神经元逐渐加入,从而创建起层级结构,当新的隐层神经元加入时,其输入端连接权值是冻结固定的相关是指通过最大化新神经元的输出与网络误差之间的相关性来训练相关的参数

唐人街探案之秦风
()算法是常用的估计参数隐变量的利器,它是一种迭代式的方法。
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-b008-c07f-52a228da6017.html
点击查看题目
LR的损失函数为hingeloss(或者说是逻辑损失都可以)、而SVM的损失函数为Log损失。
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-4500-c07f-52a228da602d.html
点击查看题目
()的人工神经网络适合学习、分类等应用。
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-b7d8-c07f-52a228da600e.html
点击查看题目
以下哪个关键字是与 try 语句一起使用来处理异常的?
https://www.shititong.cn/cha-kan/shiti/0005e9f0-78bb-7fd0-c07f-52a228da600e.html
点击查看题目
使用交叉验证最简单的方法是在估计器和数据集上调用什么辅助函数?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-e740-c07f-52a228da6006.html
点击查看题目
元宇宙本质上是对现实世界的虚拟化、数字化过程,它基于()生成现实世界的镜像。
https://www.shititong.cn/cha-kan/shiti/0005ea1f-b051-9680-c027-a9ed70c95411.html
点击查看题目
L-BFGS使用的是二阶差分(secondorderdifferentiation)
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-54a0-c07f-52a228da603a.html
点击查看题目
层次聚类数据集的划分采用了哪些策略?()
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-21d8-c07f-52a228da6012.html
点击查看题目
关于“回归(Regression)”和“相关(Correlation)”,下列说法正确的是?注意:x是自变量,y是因变量。
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-bbc0-c07f-52a228da6004.html
点击查看题目
下列有关数据归一化操作的说法,正确的有:
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-25c0-c07f-52a228da600f.html
点击查看题目
首页
>
财会金融
>
唐人街探案之秦风
题目内容
(
单选题
)
手机预览
唐人街探案之秦风

关于级联相关网络描述错误的是

A、属于结构自适应网络,网络结构也是其优化目标

B、主要成分为级联、相关、归约

C、无需设置网络层数、隐层神经元数目

D、训练速度快,但数据较小时容易陷入过拟合

答案:B

解析:级联相关网络有两个主要成分“级联”和“相关”级联是指建立层次连接的层级结构,在开始训练时,网络只有输入层和输出层,处于最小拓扑结构;随着训练的进行,新的隐层神经元逐渐加入,从而创建起层级结构,当新的隐层神经元加入时,其输入端连接权值是冻结固定的相关是指通过最大化新神经元的输出与网络误差之间的相关性来训练相关的参数

分享
唐人街探案之秦风
相关题目
()算法是常用的估计参数隐变量的利器,它是一种迭代式的方法。

A. EM

B. 吉布斯采样

C. 贝叶斯

D. 概率分布

https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-b008-c07f-52a228da6017.html
点击查看答案
LR的损失函数为hingeloss(或者说是逻辑损失都可以)、而SVM的损失函数为Log损失。

解析:错误

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-4500-c07f-52a228da602d.html
点击查看答案
()的人工神经网络适合学习、分类等应用。

A. 反馈型

B. 随机型网络

C. 自组织竞争型

D. 前向型

https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-b7d8-c07f-52a228da600e.html
点击查看答案
以下哪个关键字是与 try 语句一起使用来处理异常的?

A. catch

B. exception

C. catch(a)

D. except

解析:见函数库

https://www.shititong.cn/cha-kan/shiti/0005e9f0-78bb-7fd0-c07f-52a228da600e.html
点击查看答案
使用交叉验证最简单的方法是在估计器和数据集上调用什么辅助函数?

A. cross_val_score

B. cross_val%

C. val_score

D. cross_score

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-e740-c07f-52a228da6006.html
点击查看答案
元宇宙本质上是对现实世界的虚拟化、数字化过程,它基于()生成现实世界的镜像。

A. 扩展现实技术

B. 区块链技术

C. 数字孪生技术

D. 云计算

https://www.shititong.cn/cha-kan/shiti/0005ea1f-b051-9680-c027-a9ed70c95411.html
点击查看答案
L-BFGS使用的是二阶差分(secondorderdifferentiation)
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-54a0-c07f-52a228da603a.html
点击查看答案
层次聚类数据集的划分采用了哪些策略?()

A. 自底向上

B. 贪心策略

C. 自顶向下

D. 以上都是

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-21d8-c07f-52a228da6012.html
点击查看答案
关于“回归(Regression)”和“相关(Correlation)”,下列说法正确的是?注意:x是自变量,y是因变量。

A. 回归和相关在x和y之间都是互为对称的

B. 回归和相关在x和y之间都是非对称的

C. 回归在x和y之间是非对称的,相关在x和y之间是互为对称的

D. 回归在x和y之间是对称的,相关在x和y之间是非对称的

https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-bbc0-c07f-52a228da6004.html
点击查看答案
下列有关数据归一化操作的说法,正确的有:

A. 归一化的目的是将数据限制在一定范围
$;$归一化后可加快梯度下降求最优解的速度
$;$逻辑回归等模型先验假设数据服从正态分布

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-25c0-c07f-52a228da600f.html
点击查看答案
试题通小程序
试题通app下载