A、(&、|、!)
B、(and、or、not)
C、(&&、||、!)
D、(&、and、!)
答案:B
A、(&、|、!)
B、(and、or、not)
C、(&&、||、!)
D、(&、and、!)
答案:B
A. 模式识别
B. 文字合成
C. 图像搜索
D. 图像还原
A. 结构化数据
B. 半结构化数据
C. 非结构化数据
D. 大数据
A. 数据科学将成为科研体系中的重要组成部分,并逐渐取得与包括物理 化学 生命科学等学科在内的自然科学分庭抗争的地位。
B. 科学研究和市场 产业的联系将变得更加密切
C. 从发现基本原理到产业化的周期将会大大被缩短
D. 以上都不对
A. K均值丢弃被它识别为噪声的对象,而DBSCAN一般聚类所有对象
B. K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念
C. K均值很难处理非球形的簇和不同大小的簇,DBSCAN可以处理不同大小和不同形状的簇
D. K均值可以发现不是明显分离的簇,即便簇有重叠也可以发现,但是DBSCAN会合并有重叠的簇
A. c=dict(zip(b,a))
B. c=dict(zip(a,b))
C. c=dict(list(a,b))
D. c=dict(list(b,a))
解析:见函数库
解析:采用测量不同特征值之间的距离方法进行分类的算法是K-近邻算法。错误
A. 随机梯度下降
B. 修正线性单元(ReLU)
C. 卷积函数
D. 以上都不正确
解析:修正线性单元是非线性的激活函数
A. 精确度
B. 准确率
C. 召回率
D. 纯度
解析:见算法解析
A. 增加树的深度
B. 增加学习率
C. 减少树的数量
D. 减小树的深度
解析:一般用决策树进行分类,从根结点开始,对实例的某一特征进行测试,根据测试结果,将实例分配到其子结点。这时,每一个子结点对应着该特征的一个取值。如此递归地对实例进行测试并分类,直至达到叶结点。最后将实例分到叶结点的类中。—— 引自李航 《统计学习方法》
决策树深度越深,在训练集上误差会越小,准确率越高。但是容易造成过拟合,而且增加模型的训练时间。对决策树进行修剪,减小树的深度,能够提高模型的训练速度,有效避免过拟合。
单决策树中,学习率不是一个有效参数。
决策树是单树,随机森林由多个决策树组成。