221.优化器是训练神经网络的重要组成部分,使用优化器的目的不包含以下哪项:
A. 加快算法收敛速度
B. 减少手工参数的设置难度
C. 避免过拟合问题
D. 避过局部极值
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-5992-c0d7-b77d19146f00.html
点击查看答案
88.以下哪个激活函数可以很好的解决梯度消失问题?
A. Tanh
B. Softsign
C. Relu
D. Sigmoid
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-df4d-c0d7-b77d19146f00.html
点击查看答案
465.使用随机梯度下降时,因为每次训练选取的样本是随机的,这本身就带来了不稳定性,会导致损失函数在下降到最低点的过程中,收敛过程不稳定
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d28-1f3c-c0d7-b77d19146f00.html
点击查看答案
1、性能更优的模型往往有着更大的参数量,所以为了性能最优,参数量越多越好。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-0b75-c0d7-b77d19146f00.html
点击查看答案
1、()意味着每一个卷积核在遍历整个图像的时候,卷积核的参数是固定不变的。【请输入中文】
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-66d8-c0d7-b77d19146f00.html
点击查看答案
1、调用华为云语音识别API时,result代表调用成功的识别结果,调用失败时无此字段。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-1bd7-c0d7-b77d19146f00.html
点击查看答案
14.以下哪些框架原生支持分布式深度学习框架?
A. TensorFlow
B. MXNet
C. MindSpore
D. CNTK
解析:解析:目前原生支持的分布式深度学习框架不多,只有TensorFlow、CNTK、DeepLearning4J、MXNet等。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d28-87b0-c0d7-b77d19146f00.html
点击查看答案
550.Relu激活函数在正半区间的导数为()
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d28-7374-c0d7-b77d19146f00.html
点击查看答案
463.在超参数搜索空间较大的情况下,采用随机搜索,会优于网格搜索的效果。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d28-1e38-c0d7-b77d19146f00.html
点击查看答案
1、卷积神经网络中()层的作用是提取局部特征。【请输入中文】
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-e401-c0d7-b77d19146f00.html
点击查看答案