答案:B
解析:也有纯基于transformer的模型
答案:B
解析:也有纯基于transformer的模型
解析:通过矩阵的奇异值分解到达降维的目的
A. LSTM在一定程度上解决了传统RNN梯度消失或梯度爆炸的问题
B. CNN相比于全连接的优势之一是模型复杂度低,缓解过拟合
C. 只要参数设置合理,深度学习的效果至少应优于随机算法
D. 随机梯度下降法可以缓解网络训练过程中陷入鞍点的问题
解析:只要参数设置合理,深度学习的效果至不一定优于随机算法
A. 隐层层数增加,模型能力增加
B. Dropout的比例增加,模型能力增加
C. 学习率增加,模型能力增加
D. 都不正确
A. JP聚类擅长处理噪声和离群点,并且能够处理不同大小、形状和密度的簇。
B. JP算法对高维数据效果良好,尤其擅长发现强相关对象的紧致簇。
C. JP聚类是基于SNN相似度的概念。
D. JP聚类的基本时间复杂度为O(m)。
A. 0.5
B. 0.25
C. 0.167
D. 0.125
解析:几何概率,x<1/2,y<1/2,x+y<1,x+y>1/2,围城的面积为1/4
A. 增加树的深度
B. 增加学习率
C. 减少树的数量
D. 减小树的深度
解析:一般用决策树进行分类,从根结点开始,对实例的某一特征进行测试,根据测试结果,将实例分配到其子结点。这时,每一个子结点对应着该特征的一个取值。如此递归地对实例进行测试并分类,直至达到叶结点。最后将实例分到叶结点的类中。—— 引自李航 《统计学习方法》
决策树深度越深,在训练集上误差会越小,准确率越高。但是容易造成过拟合,而且增加模型的训练时间。对决策树进行修剪,减小树的深度,能够提高模型的训练速度,有效避免过拟合。
单决策树中,学习率不是一个有效参数。
决策树是单树,随机森林由多个决策树组成。
解析:正确
A. 由于负数部分恒为0,会导致一些神经元无法激活
B. 输出不是以0为中心
C. 解决了梯度消失、爆炸的问题
D. 计算方便,计算速度快,求导方便
解析:见算法解析
A. SVM分类
B. 使用SelectiveSearch输出候选框
C. 使用MLP进行分类与回归预测
D. 使用ROIpooling
解析:见算法解析