A、不管数据大小,始终保持30%作为测试集
B、测试集和验证集不能共存
C、在数据规模较小时,可以保留30%测试集
D、测试集不必占用数据集的30%,能够保证对模型的考核即可
答案:CD
A、不管数据大小,始终保持30%作为测试集
B、测试集和验证集不能共存
C、在数据规模较小时,可以保留30%测试集
D、测试集不必占用数据集的30%,能够保证对模型的考核即可
答案:CD
A. 抖动效应
B. 马太效应
C. 数据溢出
D. 内存不足
解析:康内尔大学发表了公平无偏的排序学习模型FairCO,可缓解检索排序马太效应的问题
A. 样本数量太少
B. 样本数量过多
C. 模型太复杂
D. 模型太简单
A. 输入层和输出层之间仅包含一个中间层
B. 输入层和输出层之间可能包含多个中间层
C. 激活函数允许隐藏结点和输出结点的输出值与输入参数呈现线性关系
D. 激活函数允许隐藏结点和输出结点的输出值与输入参数呈现非线性关系
解析:见算法解析
A. 增加样本数量
B. 增加特征数量
C. 训练更多的迭代次数
D. 采用正则化方法
解析:见算法解析
A. 学习率太小,更新速度慢
B. 学习率过大,可能跨过最优解
C. 学习率也是有网络学习而来
D. 学习率可在网络训练过程中更改
解析:CNN网络设计中,学习率的设置往往对训练收敛起到关键作用,关于学习率的说法,错误的是学习率也是有网络学习而来
A. 机器学习
B. 计算机视觉
C. 语音识别
D. 自然语言处理
A. 分层(Hierarchical)聚类
B. 两步(TwoStep)聚类
C. Kohonennetwork
D. KNN算法
E. K平均值(K-means)算法
A. 隐藏层数适当减少,神经网络的分辨能力不变
B. 隐藏层数适当增加,神经网络的分辨能力越强
C. 隐藏层数适当减少,神经网络的分辨能力越强
D. 隐藏层数适当增加,神经网络的分辨能力越弱
A. a
B. b
C. c
D. true