答案:反向
答案:反向
A. 高斯核函数
B. 多项式核函数
C. Sigmiod核函数
D. 线性核函数
A. Datasets
B. Sequential
C. fit
D. Preprocessing
A. 小艺对话开发平台
B. 智能图表识别平台
C. 快服务智慧平台HAG
D. 自定义语音合成平台
A. 正向传播算法
B. 池化计算
C. 卷积计算
D. 反向传播算法
A. 支持GPU加速
B. 支持Ascend志片加速
C. 支持多种开发框架
D. 自定义镜像
A. 普通梯度下降算法一定能收敛到全局极值点。
B. 普通梯度下降算法给每个参数设置不同的学习率。
C. 普通梯度下降算法需要手工设置学习率。
D. 普通梯度下降算法容易陷入局部极值点。
解析:解析(不同的参数使用不同的学习率如果数据是稀疏的且特征分布不均,似乎我们更应该给予较少出现的特征一个大的更新。这时可能需要对不同特征对应的参数设定不同的学习率。)