A、任意尺度输入$;$效率高$;$没有考虑上下文信息$;$分割不够精细
答案:CD
A、任意尺度输入$;$效率高$;$没有考虑上下文信息$;$分割不够精细
答案:CD
A. Mini-Batch 为偶数的时候,梯度下降算法训练的更快
$;$ Mini-Batch 设为2的幂,是为了符合 CPU、GPU 的内存要求,利于并行化处理
$;$ 不使用偶数时,损失函数是不稳定的
$;$ 以上说法都不对
A. 建模$;$模型测试$;$模型应用$;$分析模型
A. 聚类是非监督学习$;$分类是非监督学习$;$聚类是监督学习$;$以上都不对
A. 让每一层的输入的范围都大致固定$;$它将权重的归一化平均值和标准差$;$它是一种非常有效的反向传播(BP)方法$;$这些均不是
A. 增加网络宽度$;$轻量化网络模型$;$改善网络退化现象$;$增加网络深度
A. 模式识别$;$文字合成$;$图像搜索$;$图像还原
A. 重复数据$;$虚假数据$;$错误数据$;$异常数据
A. 均方差$;$Sigmoid交叉熵$;$Sofmax交叉熵$;$Sparse交叉熵
A. Python的实现有错误$;$浮点数无法精确表示$;$布尔运算不能用于浮点数比较$;$Python将非0数视为False
A. 基于内容的寻址$;$基于位置的寻址$;$都不行$;$都可以