A、在实际场景下,应尽量使用ADAM,避免使用SGD
B、同样的初始学习率情况下,ADAM的收敛速度总是快于SGD方法
C、相同超参数数量情况下,比起自适应的学习率调整方式,SGD加手动调节通常会取得更好效果
D、同样的初始学习率情况下,ADAM比SGD容易过拟合
答案:C
解析:相同超参数数量情况下,比起自适应的学习率调整方式,SGD加手动调节通常会取得更好效果
A、在实际场景下,应尽量使用ADAM,避免使用SGD
B、同样的初始学习率情况下,ADAM的收敛速度总是快于SGD方法
C、相同超参数数量情况下,比起自适应的学习率调整方式,SGD加手动调节通常会取得更好效果
D、同样的初始学习率情况下,ADAM比SGD容易过拟合
答案:C
解析:相同超参数数量情况下,比起自适应的学习率调整方式,SGD加手动调节通常会取得更好效果
A. 不断递归而衰退
B. 不断递归而增强
C. 先增强后减弱
D. 先减弱后增强
A. 新一代技术平台
B. 新一代信息技术和服务业态
C. 新一代服务业态
D. 新一代信息技术
A. 模型分类的召回率不变
B. 模型分类的召回率会升高
C. 模型分类准确率会升高或不变
D. 模型分类准确率降低
解析:准确率:即预测结果正确的百分比。精确率(查准率):预测结果为正例样本中真实为正例的比例(查得准)。召回率(查全率):真实为正例的样本中预测结果为正例的比例(查的全,对正样本的区分能力。F-score:在实践中,我们定义了新的指标去“综合”这两个指标。具体的定义如公式(3),从数学上来看,它其实是查准率与查全率的调和平均数。对于二元分类问题,F-score 综合考虑了预测结果的查准率和查全率,是一个比较好的评估指标。
A. LSTM是简化版的RNN
B. LSTM是双向的RNN
C. LSTM是多层的RNN
D. LSTM是RNN的扩展,通过特殊的结构设计来避免长期依赖问题
解析:LSTM是RNN的扩展,通过特殊的结构设计来避免长期依赖问题
A. 残差均值总是为零
B. 残差均值总是小于零
C. 残差均值总是大于零
D. 以上说法都不对
解析:线性回归分析中,目标是残差最小化。残差平方和是关于参数的函数,为了求残差极小值,令残差关于参数的偏导数为零,会得到残差和为零,即残差均值为零。
A. 数据优化
B. 数据增强
C. 模型集成
D. 引入参数范数惩罚项
解析:常见的机器学习模型正则化方法包含数据增强、模型集成、引入参数范数惩罚项
A. U-Net
B. DeepLab
C. ICNet
D. BERT
解析:BERT是自然语言模型
解析:错误