A、监督学习
B、无监督学习
C、半监督学习
D、强化学习
答案:B
解析:聚类分析(Cluster analysis)或聚类是把相似的对象通过静态分类的方法分成不同的组别或者更多的子集,这样让在同一个子集中的成员对象都有相似的一些属性,属于无监督学习。
A、监督学习
B、无监督学习
C、半监督学习
D、强化学习
答案:B
解析:聚类分析(Cluster analysis)或聚类是把相似的对象通过静态分类的方法分成不同的组别或者更多的子集,这样让在同一个子集中的成员对象都有相似的一些属性,属于无监督学习。
A. LeNet-5
B. AlexNet
C. ResNet50
D. ResNet152
解析:最早用于手写数字识别的卷积神经网络模型是LeNet-5
A. 一年级
B. 二年级
C. 三年级
D. 四年级
A. 增大惩罚参数C的值
B. 减小惩罚参数C的值
C. 减小核系数(gamma参数)
A. df.loc[(筛选条件1) && (筛选条件2)]
B. df.loc[(筛选条件1) 且 (筛选条件2)]
C. df.loc[(筛选条件1) and (筛选条件2)]
D. df.loc[(筛选条件1) & (筛选条件2)]
解析:pandas中多条件筛选条件之间用&连接
A. 到2035年
B. 到2030年
C. 到2025年
D. 到2020年
解析:我国人工智能三步走战略,第二步到2025年人工智能基础理论实现重大突破,部分技术与应用达到世界领先水平
A. [0 1]
B. [3 4 5]
C. [2 3]
D. [0 1 2]
解析:见算法解析
A. 增加树的深度
B. 增加学习率
C. 减少树的数量
D. 减小树的深度
解析:一般用决策树进行分类,从根结点开始,对实例的某一特征进行测试,根据测试结果,将实例分配到其子结点。这时,每一个子结点对应着该特征的一个取值。如此递归地对实例进行测试并分类,直至达到叶结点。最后将实例分到叶结点的类中。—— 引自李航 《统计学习方法》
决策树深度越深,在训练集上误差会越小,准确率越高。但是容易造成过拟合,而且增加模型的训练时间。对决策树进行修剪,减小树的深度,能够提高模型的训练速度,有效避免过拟合。
单决策树中,学习率不是一个有效参数。
决策树是单树,随机森林由多个决策树组成。
A. 表是复数的语法是real + image j
B. 实部和虚部都是浮点数
C. 虚部必须后缀j,且必须小写
D. 方法conjugate返回复数的共轭复数