A、 Mini-Batch 为偶数的时候,梯度下降算法训练的更快
$;$ Mini-Batch 设为2的幂,是为了符合 CPU、GPU 的内存要求,利于并行化处理
$;$ 不使用偶数时,损失函数是不稳定的
$;$ 以上说法都不对
答案:B
A、 Mini-Batch 为偶数的时候,梯度下降算法训练的更快
$;$ Mini-Batch 设为2的幂,是为了符合 CPU、GPU 的内存要求,利于并行化处理
$;$ 不使用偶数时,损失函数是不稳定的
$;$ 以上说法都不对
答案:B
A. SLTM$;$SLMT$;$LSMT$;$LSTM
A. LeNet$;$GoogleNet$;$Bi-LSTM$;$BERT
A. 科大讯飞$;$智能360$;$出门问问$;$百度
A. 50$;$60$;$70$;$80
A. 循环神经网络$;$全连接神经网络$;$受限波尔兹曼机$;$卷积神经网络
A. a[1:-1]$;$a[1:4]$;$a[-2:]$;$a[::2]
A. openCV$;$jieba$;$sklearn$;$XGBoost
A. GPU$;$FPGA$;$ASIC$;$CPU