A、仿射层
B、卷积层
C、RNN层
D、均不对
答案:C
A、仿射层
B、卷积层
C、RNN层
D、均不对
答案:C
A. 自增加
B. 自循环
C. 自递归
D. 自减少
解析:长短期记忆LSTM的核心贡献是引入了自循环 的巧妙构思,该构思中的权重视上下文而定,而不是固定的。
A. 由实入虚
B. 由虚馈实
C. 由虚入实
D. 由实馈虚
A. 统计学习以方法为中心,统计学习方
法构建模型并应用模型进行预测与分析
B. 统
计学习的目的是对数据进行预测与分析
C. 统计学习以模型为研究对象,是算法驱动的学科
D. 统计学习以计算机及网络为平台,是建立在计算
机及网络之上的
解析:统计学习以数据为研究对象,是数据驱动的学科
A. ./test.sh
B. /bin/sh test.sh
C. test.sh
D. chmod +x ./test.sh
A. 识别
B. 判断
C. 推理
D. 提供
解析:主要应用
A. DBSCAN
B. C4.5
C. C.K-Mean
D. EM
A. 特征选择
B. 决策树生成
C. 剪枝
D. 计算信息增益
解析:决策树构造只有特征选择、决策树生成、剪枝三个环节过程
A. 列与列之间的相关系数
B. 行与行之间的相关系数
C. 正确数据的个数
D. 无返回值
解析:f.corr()函数定义
A. Boosting
B. Bagging
C. 随机森林
D. reboot
解析:根据个体学习器的生成方式,目前集成学习大致分为两类,其中一种是个体学习器间存在强依赖关系、必须串行生成的序列化方法,该方法的代表是 Boosting
A. 1.2.3.4
B. 1.3.4.6
C. 1.2.3.4.5.6
D. 3.4.6
解析:DSSM经典模型的优点;1.解决了字典爆炸问题,降低了计算复杂度;2.中文方面使用字作为最细切分粒度,可以复用每个字表达的词义,减少分词的依赖,从而提高模型的泛化能力;3.字母的n-gram可以更好的处理新词,具有较强的鲁棒性;4.使用有监督的方法,优化语义embedding的映射问题;5.省去了人工特征工程;6.采用有监督训练,精度较高。