A、MLE中加入了模型参数本身的概率分布
B、MLE认为模型参数本身概率是不均匀的
C、MLE体现了贝叶斯认为参数也是随机变量的观点
D、MLE是指找出一组参数,使得模型产生出观测数据的概率最大
答案:D
A、MLE中加入了模型参数本身的概率分布
B、MLE认为模型参数本身概率是不均匀的
C、MLE体现了贝叶斯认为参数也是随机变量的观点
D、MLE是指找出一组参数,使得模型产生出观测数据的概率最大
答案:D
A. 数据处理
B. 网络定义
C. 网络训练
D. 网络评估
解析:基础知识
A. [10,5,3]
B. [5,10,3]
C. [3,5,10]
D. [3,10,5]
解析:lstm输入形状为[batch_size,time_steps,input_size],即[..,..,3]
A. 降低学习率,减少迭代次数
B.
降低学习率,增加迭代次数
C.
提高学习率,增加迭代次数
D.
增加学习率,减少迭代次数
A. 减少深层网络的梯度消失问题
B. 特种的重用
C. 模型参数明显增加
D. 增强特征的获取能力
解析:考察ResNet理解
解析:小得多
A. 根据特征向量X计算样本之间的相似性,选择离中心点最相似的k个样本
B. k近邻既可以用于分类,也可以用于回归
C. k近邻用于分类时,对于新的样本,计算离其最近的k个样本的平均值,作为新样本的预测值
D. k近邻用于分类时,对于新的样本,根据其k个最近邻样本的类别,通过多数表决的方式预测新样本的类别
解析:基础概念
A. 空洞卷积
B. 黑洞卷积
C. 细节卷积
D. 返向卷积
解析:见算法解析
A. k 值并不是越大越好,k 值过大,会降低运算速度
B. 选择更大的 k 值,会让偏差更小,因为 k 值越大,训练集越接近整个训练样本
C. 选择合适的 k 值,能减小验方差
D. k 折交叉验证能够有效提高模型的学习能力