y=a*x^2+b*x+c这个多项式可以使用具有线性阈值的单个隐层的神经网络表示
解析:有一个线性阈值限制神经网络就会使它成为一个相应的线性变换函数
https://www.shititong.cn/cha-kan/shiti/0005e5d0-b2fe-d648-c021-5dd340f2240c.html
点击查看答案
卷积核尺寸一般是奇数
https://www.shititong.cn/cha-kan/shiti/0005e5d0-b2fe-e5e8-c021-5dd340f22424.html
点击查看答案
算法性能显著不同时,需要进行(___)来进一步区分各算法。
A. 后续检验
B. Friedman检验
C. 交叉验证t检验
D. McNemar检验
解析:见算法解析
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e8-f248-c021-5dd340f22421.html
点击查看答案
有关数据仓库的开发特点,正确的描述是?
A. 数据仓库开发要从数据出发;
B. 数据仓库使用的需求在开发出去就要明确;
C. 数据仓库的开发是一个不断循环的过程,是启发式的开发
D. 在数据仓库环境中,并不存在操作型环境中所固定的和较确切的处理流,数据仓库中数据分析和处理更灵活,且没有固定的模式
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e9-2510-c021-5dd340f22407.html
点击查看答案
AlexNet与LeNet相比,具有更深的网络结构,包含5层卷积和3层全连接
解析:正确
https://www.shititong.cn/cha-kan/shiti/0005e5d0-b2fe-de18-c021-5dd340f22401.html
点击查看答案
产生式系统的推理不包括
A. 正向推理
B. 逆向推理
C. 双向推理
D. 简单推理
解析:产生式系统的推理包括正向、逆向、双向推理
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e8-e2a8-c021-5dd340f2240a.html
点击查看答案
以下说法正确的是
A. 负梯度方向是使函数值下降最快的方向
B. 当目标函数是凸函数时,梯度下降法的解是全局最优解
C. 梯度下降法比牛顿发收敛速度快
D. 梯度下降法需要确定合适的迭代步长
解析:牛顿法需要二阶求导,梯度下降法只需一阶,因此牛顿法比梯度下
降法更快收敛。
https://www.shititong.cn/cha-kan/shiti/0005e5d0-af1d-b418-c021-5dd340f22412.html
点击查看答案
a=[0,1,2,3,4,5,6,7,8,9], a[1:5]的输出为 ()。
A. [0,1,2,3]
B. [1,2,3,4]
C. [0,1,2,3,4]
D. [1,2,3,4,5]
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a626-1850-c021-5dd340f22407.html
点击查看答案
神经网络的拓扑结构可以分为()。
A. 前向型
B. 反馈型
C. 自组织竞争型
D. 随机型
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e9-28f8-c021-5dd340f22414.html
点击查看答案
在其他条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题()
A. 增加训练集量
B. 减少神经网络隐藏层节点数
C. 删除稀疏的特征
D. SVM算法中使用高斯核/RBF核代替线性核
解析:SVM算法中使用高斯核/RBF核代替线性核容易引起机器学习中的过拟合问题
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e8-d6f0-c021-5dd340f22410.html
点击查看答案