A、 Mini-Batch 为偶数的时候,梯度下降算法训练的更快
B、 Mini-Batch 设为2的幂,是为了符合 CPU、GPU 的内存要求,利于并行化处理
C、 不使用偶数时,损失函数是不稳定的
D、 以上说法都不对
答案:B
A、 Mini-Batch 为偶数的时候,梯度下降算法训练的更快
B、 Mini-Batch 设为2的幂,是为了符合 CPU、GPU 的内存要求,利于并行化处理
C、 不使用偶数时,损失函数是不稳定的
D、 以上说法都不对
答案:B
A. 2
B. 3
C. 5
D. 6注:(已导入numpy库)import numpy as np
解析:见函数库
A. k≤3
B. k<3
C. k=3
D. k>3
A. CNN
B. LSTM
C. GRU
D. RNN
解析:RNN(Recurrent Neural Network)是一类用于处理序列数据的神经网络。 RNN存在一些问题梯度较容易出现衰减或爆炸(BPTT) - 梯度爆炸
A. 表格型的数据结构,含有一组无序的列,每列可以是不同的值类型
B. 既有行索引,也有列索引,可被看做有Series组成的字典
C. 与其他类似的数据结构相比(如R语言的datframe),DataFrame中面向行和面向列的操作基本上是平衡的
D. 数据一一个或多个二维块存放,而不是列表、字典或别的一维数据结构
解析:见函数库
A. 体感交互
B. 指纹识别
C. 人脸识别
D. 虹膜识别
A. 语音合成
B. 本人录制
C. 语音识别
D. 词典查询
A. 权重
B. 分布
C. 概率
D. 数量
解析:Boosting的本质实际上是一个加法模型,通过改变训练样本权重学习多个分类器并进行一些线性组合
A. 符号主义
B. 机会主义
C. 行为主义
D. 连接主义
解析:机会主义不属于人工智能的学派