答案:A
A. a== [1,2,3,4,['a','b','c'],5]
B. b== [1,2,3,4,['a','b','c'],5]
C. c== [1,2,3,4,['a','b','c']]
D. d== [1,2,3,4,['a','b',‘c’]]
A. 采样
B. 裁剪
C. 量化
D. 旋转
A. 增大惩罚参数C
B. 减小惩罚参数C
C. 减小核函数系数(gamma值)
D. 增大核函数系数(gamma值)
解析:
C值小时对误差分类的惩罚减小,当C趋于0时,表示我们不再关注分类是否正确,只要求margin越大,容易欠拟合。
A. CNN
B. RNN
C. GRU
D. LSTM
解析:在处理序列数据时,较容易出现梯度消失现象的模型是RNN
A. 一
B. 二
C. 三
D. 四
解析:留出法直接将数据集划分为两个互斥的集合,其中一个集合作为训练集,另一个作为测试集,在训练集上训练出模型后,用测试集来评估其测试误差,作为对泛化误差的估计
A. LeNet-5
B. AlexNet
C. ResNet50
D. ResNet152
A. b)、c)
B. a)、b)
C. a)
D. a)、c)
解析:SelectiveSearch、Regionproposallayer能产生候选框
A. 纯半监督学习
B. 直推学习
C. 假设学习
D. 聚类学习
A. 神经元
B. 阈值
C. 兴奋
D. 节点
A. 它能根据已有的数据进行改变
B. 它能在估计过程中引入正则项
C. 贝叶斯回归的推断速度快