答案:A
A. Action
B. Attention
C. Transformation
D. Information
解析:Transformer中抛弃了传统的CNN和RNN,整个网络结构完全是由Attention机制组成。
解析:正确
A. 增加训练集量
B. 减少神经网络隐藏层节点数
C. 删除稀疏的特征
D. SVM算法中使用高斯核/RBF核代替线性核
解析:在其他条件不变的前提下,以下做法容易引起机器学习中的“过拟合”问题的是SVM算法中使用高斯核/RBF核代替线性核。
A. C3有3个残差块
B. C4有4个残差块
C. C5有4个残差块
D. C2有3个残差块
解析:ResNet-50:depth=[3,4,6,3]代表C2有3个残差块
A. 农业
B. 教育
C. 金融
D. 以上全部应用
A. 模式识别
B. 文字合成
C. 图像搜索
D. 图像还原
A. del
B. deleteFrom
C. delete
D. drop
解析:Keras和tensorflow都是深度学习框架。
A. 相加关系
B. 相关关系
C. 后面的模型必须建立在前面的模型之上
D. 相互独立
A. 绝对百分比误差
B. 相似度
C. 二进制交叉熵损失
D. 误差平方损失