A、信息增益
B、损失函数
C、准确率
D、召回率
答案:B
解析:剪枝分为前剪枝和后剪枝,前剪枝本质就是早停止,后剪枝通常是通过衡量剪枝后损失函数变化来决定是否剪枝。
A、信息增益
B、损失函数
C、准确率
D、召回率
答案:B
解析:剪枝分为前剪枝和后剪枝,前剪枝本质就是早停止,后剪枝通常是通过衡量剪枝后损失函数变化来决定是否剪枝。
A. k值并不是越大越好,k值过大,会降低运算速度
B. 选择更大的k值,会让偏差更小,因为k值越大,训练集越接近整个训练样本
C. 选择合适的k值,能减小验方差
D. 以上说法都正确
A. 定义一个列表,并初始化它。
B. 定义一个函数,但什么都不做。
C. 定义一个函数,并传递参数。
D. 定义一个空的类。
A. 应用层
B. 感知层
C. 数据层
D. 以上都是
解析:物联网为人工智能的感知层提供了基础设施环境,同时带来了多维度、及时全面的海量训练数据。
解析:正确
A. LeNet-5
B. AlexNet
C. ResNet50
D. ResNet152
A. L1/L2正则化
B. dropout
C. dataargumentation
D. earlystop
解析:见算法解析
A. 若X与Y相互独立,则X与Y不相关
B. 若X与Y相关,则X与Y不相互独立
C. 若E(XY)
=E(X)E(Y),则X与Y相互独立
D. 若f(x,y)=fX(x)fY(y),则X与Y不相关
解析:独立是不相关的充分但不必要条件;E(XY)=E(X)E(Y)只能推出X与Y不相关,即二者没有线性关系(但可能有其他关系),不能代表X与Y相互独立
A. 95
B. 96
C. 97
D. 98
解析:首先我们应该知道卷积或者池化后大小的计算公式,其中,padding指的是向外扩展的边缘大小,而stride则是步长,即每次移动的长度。
这样一来就容易多了,首先长宽一般大,所以我们只需要计算一个维度即可,这样,经过第一次卷积后的大小为: 本题 (200-5+2*1)/2+1 为99.5,取99
经过第一次池化后的大小为: (99-3)/1+1 为97
经过第二次卷积后的大小为: (97-3+2*1)/1+1 为97
A. python程序有时也称脚本,是一系列定义和命令
B. python解释器有时也称shell,用来求值定义并执行命令
C. 若python 对象属于布尔类别(bool),那它也属于非标量对象
D. float表示实数,其字面量总是包括一个小数点,属于标量对象
A. 重赋权法
B. 重采样法
C. 重训练法
D. 重预测法