A、设为0
B、设为无穷大
C、不定义
D、设为任意值
答案:A
解析:Relu在零点不可导,那么在反向传播中设为0
A、设为0
B、设为无穷大
C、不定义
D、设为任意值
答案:A
解析:Relu在零点不可导,那么在反向传播中设为0
A. LSTM中通过引入输入门、遗忘门、输出门解决了RNN中存在的梯度消失和梯度爆炸
B. LSTM中门的开关程度是由信息的权重决定的,即训练过程中记住重要信息
C. 与RNN相比,LSTM中引入更多参数,所以其训练周期更久
D. LSTM中使用Sigmoid实现门限控制,而用TanH实现数据处理
A. DBSCAN
B. C4.5
C. C.K-Mean
D. EM
A. 循环神经网络
B. 卷积神经网络
C. word2vec
D. bert
解析:对于图像数据,通常使用的模型是卷积神经网络
A. 特征工程指的是把原始数据转变为模型的训练数据的过程
B. 它的目的就是获取更好的训练数据特征,使得机器学习模型逼近这个上限
C. 特征工程在机器学习中占有非常重要的作用,一般认为括特征构建、特征提取、特征选择三个部分。
D. 特征提取是从特征集合中挑选一组具有明显物理或统计意义的特征子集。
A. word2vec
B. fasttext
C. glove
D. elmo
解析:elmo支持一词多义
解析:正确
A. 输入层
B. 卷积层
C. 隐含层
D. 输出层
解析:见算法解析
A. 不管数据大小,始终保持30%作为测试集
B. 测试集和验证集不能共存
C. 在数据规模较小时,可以保留30%测试集
D. 测试集不必占用数据集的30%,能够保证对模型的考核即可
A. 训练的周期
B. 训练的批次
C. 输入数据的维度
D. 数据的通道
解析:image=fluid.layers.data(name='image',shape=[1,28,28],dtype='float32'),代码中28表示输入数据的维度