1、池化层在卷积神经网络里必不可少。
解析:解析:(在复杂任务中,如目标检测和语义分割等,池化层可能会导致信息丢失)
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-18e5-c0d7-b77d19146f00.html
点击查看答案
55.tensorFlow2.0中可用于张量合并的方法有?
A. split
B. join
C. concat
D. unstack
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-bf9f-c0d7-b77d19146f00.html
点击查看答案
38.损失函数E【W】是定义在权值空间上的函数。我们的目的是搜索使得E【W】最小的权值向量。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d28-9f99-c0d7-b77d19146f00.html
点击查看答案
1、MindSporeLite没有使用以下哪项技术?单
A. 大小核智能超频
B. 内存复用.
C. 联邦学习.
D. 异构调度.
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-f7e3-c0d7-b77d19146f00.html
点击查看答案
1、请匹配下面的算子:
MindInsight是MindSpore提供的可视化工具,可用于完成训练可视化、性能调优、精度调优等任务。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-7232-c0d7-b77d19146f00.html
点击查看答案
1、模型的容量指其拟合各种函数的能力,也称为模型的复杂度。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-7818-c0d7-b77d19146f00.html
点击查看答案
513.拖拽题:请匹配神经网络的不同发展阶段。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d28-4cb4-c0d7-b77d19146f00.html
点击查看答案
1、Softmax回归是逻辑回归的一般化,只适用于二分类的问题。
解析:解析:逻辑回归只能用于二分类问题,如果是多分类问题,我们通常使用Softmax函数。Softmax回归是逻辑回归的一般化,适用于K分类的问题。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-14f3-c0d7-b77d19146f00.html
点击查看答案
1、关于梯度下降,以下哪项说法是正确的?单
A. 全局梯度下降比随机梯度下降速度更快。
B. Adam不属干梯度下降算法。
C. 随机梯度下降对噪声点敏感。
D. 使用梯度下降时,学习率应该保持一致。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-dc9f-c0d7-b77d19146f00.html
点击查看答案
1、防止过拟合最有效的方法是减小训练集,训练集越大过拟合概率越大。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-7c3c-c0d7-b77d19146f00.html
点击查看答案