A、 各基分类器之间有较强依赖,不可以进行并行训练。
B、 最著名的算法之一是基于决策树基分类器的随机森林。
C、 当训练样本数量较少时,子集之间可能有重叠。
D、 为了让基分类器之间互相独立,需要将训练集分为若干子集。
答案:A
A、 各基分类器之间有较强依赖,不可以进行并行训练。
B、 最著名的算法之一是基于决策树基分类器的随机森林。
C、 当训练样本数量较少时,子集之间可能有重叠。
D、 为了让基分类器之间互相独立,需要将训练集分为若干子集。
答案:A
A. 负梯度方向是使函数值下降最快的方向
B. 当目标函数是凸函数时,梯度下降法的解是全局最优解
C. 梯度下降法比牛顿法收敛速度快
D. 拟牛顿法不需要计算Hesse矩阵
A. 对于n类别,需要训练n个模型
B. 对于n类别,需要训练n-1个模型
C. 对于n类别,只需要训练1个模型
D. 以上说法都不对
A. 原始矩阵的元素是非负数
B. 分解后矩阵的元素是非负数
C. 分解后矩阵的元素可以是负数
D. 没有“潜在语义空间的每一个维度都是正交的”这一约束条件
A. AlphaGo
B. AlphaGood
C. AlphaFun
D. Alpha
A. 四阶及以上的张量,如四维及以上的向量一样没有直接的几何意义。
B. 数组是一个张量
C. TensorFlow 中的运算与模型优化过程都是基于张量完成的。
D. 一个矩阵是一个二阶张量。
A. 规约数据
B. 摘录
C. 规则库
D. 数据业务化
A. 5
B. 4
C. 3
D. 2
解析:见算法解析
A. 使图像亮度平缓渐变;
B. 减小突变梯度;
C. 改善图像质量;
D. 突出图像的窄小区域
解析:见算法解析
A. MLE中加入了模型参数本身的概率分布
B. MLE认为模型参数本身概率是不均匀的
C. MLE体现了贝叶斯认为参数也是随机变量的观点
D. MLE是指找出一组参数,使得模型产生出观测数据的概率最大
A. 数据获取
B. 分析案例
C. 模型验证
D. 模型训练