答案:A
解析:正确
A. k 值并不是越大越好,k 值过大,会降低运算速度
B. 选择更大的 k 值,会让偏差更小,因为 k 值越大,训练集越接近整个训练样本
C. 选择合适的 k 值,能减小验方差
D. k 折交叉验证能够有效提高模型的学习能力
A. 反向传播只能在前馈神经网络中运用
B. 反向传播可以结合梯度下降算法更新网络权重
C. 反向传播会经过激活函数
D. 反向传播指的是误差通过网络反向传播
A. 减少深层网络的梯度消失问题
B. 特种的重用
C. 模型参数明显增加
D. 增强特征的获取能力
解析:考察ResNet理解
A. 情报搜集
B. 全文检索
C. 分词技术
D. 热词分析
解析:主要应用
A. 2x + y = 4
B. x + 2y = 5
C. x + 2y = 3
D. 2x - y = 0
解析:对于两个点来说,最大间隔就是两点连线的垂直平分线,因此求出垂直平分线即可。
A. 智能化&;&标准化&;&数字化
B. 云端化
A. 标准差
B. 极差
C. 方差
D. 极小值
A. Mini-Batch 为偶数的时候,梯度下降算法训练的更快
B. Mini-Batch 设为2的幂,是为了符合 CPU、GPU 的内存要求,利于并行化处理
C. 不使用偶数时,损失函数是不稳定的
D. 以上说法都不对
A. Action
B. Attention
C. Transformation
D. Information
解析:Transformer中抛弃了传统的CNN和RNN,整个网络结构完全是由Attention机制组成。