APP下载
首页
>
财会金融
>
唐人街探案之秦风
搜索
唐人街探案之秦风
题目内容
(
判断题
)
计算机视觉的模型都是基于卷积神经网络的

答案:B

解析:也有纯基于transformer的模型

唐人街探案之秦风
LSA(Latent Semantic Analysis)是一种自然语言处理算法,通过矩阵的奇异值分解到达聚类的目的
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-50b8-c07f-52a228da6016.html
点击查看题目
下列关于深度学习说法错误的是
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-0e50-c07f-52a228da6007.html
点击查看题目
下列哪项关于模型能力的描述是正确的(指模型能近似复杂函数的能力)
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da601d.html
点击查看题目
下面关于Jarvis-Patrik(JP)聚类算法的说法不正确的是( )。
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-feb0-c07f-52a228da600c.html
点击查看题目
鞍点是多维空间中函数的最优解
https://www.shititong.cn/cha-kan/shiti/0005e9f1-2242-5d30-c07f-52a228da6019.html
点击查看题目
一根绳子,随机截成3段,可以组成一个三角形的概率是()。
https://www.shititong.cn/cha-kan/shiti/0005e9f1-2242-5178-c07f-52a228da6018.html
点击查看题目
如果在大型数据集上训练决策树。为了花费更少的时间来训练这个模型,下列哪种做法是正确的
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-9c80-c07f-52a228da601c.html
点击查看题目
随机森林的一大优势在于它既可用于分类,也可用于回归问题。
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-48e8-c07f-52a228da6002.html
点击查看题目
Relu激活函数的缺点?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-3948-c07f-52a228da6022.html
点击查看题目
哪些技术是RCNN采用而FasterRCNN没有用?()
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-3560-c07f-52a228da600d.html
点击查看题目
首页
>
财会金融
>
唐人街探案之秦风
题目内容
(
判断题
)
手机预览
唐人街探案之秦风

计算机视觉的模型都是基于卷积神经网络的

答案:B

解析:也有纯基于transformer的模型

分享
唐人街探案之秦风
相关题目
LSA(Latent Semantic Analysis)是一种自然语言处理算法,通过矩阵的奇异值分解到达聚类的目的

解析:通过矩阵的奇异值分解到达降维的目的

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-50b8-c07f-52a228da6016.html
点击查看答案
下列关于深度学习说法错误的是

A. LSTM在一定程度上解决了传统RNN梯度消失或梯度爆炸的问题

B. CNN相比于全连接的优势之一是模型复杂度低,缓解过拟合

C. 只要参数设置合理,深度学习的效果至少应优于随机算法

D. 随机梯度下降法可以缓解网络训练过程中陷入鞍点的问题

解析:只要参数设置合理,深度学习的效果至不一定优于随机算法

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-0e50-c07f-52a228da6007.html
点击查看答案
下列哪项关于模型能力的描述是正确的(指模型能近似复杂函数的能力)

A. 隐层层数增加,模型能力增加

B. Dropout的比例增加,模型能力增加

C. 学习率增加,模型能力增加

D. 都不正确

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-f2f8-c07f-52a228da601d.html
点击查看答案
下面关于Jarvis-Patrik(JP)聚类算法的说法不正确的是( )。

A. JP聚类擅长处理噪声和离群点,并且能够处理不同大小、形状和密度的簇。

B. JP算法对高维数据效果良好,尤其擅长发现强相关对象的紧致簇。

C. JP聚类是基于SNN相似度的概念。

D. JP聚类的基本时间复杂度为O(m)。

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-feb0-c07f-52a228da600c.html
点击查看答案
鞍点是多维空间中函数的最优解
https://www.shititong.cn/cha-kan/shiti/0005e9f1-2242-5d30-c07f-52a228da6019.html
点击查看答案
一根绳子,随机截成3段,可以组成一个三角形的概率是()。

A. 0.5

B. 0.25

C. 0.167

D. 0.125

解析:几何概率,x<1/2,y<1/2,x+y<1,x+y>1/2,围城的面积为1/4

https://www.shititong.cn/cha-kan/shiti/0005e9f1-2242-5178-c07f-52a228da6018.html
点击查看答案
如果在大型数据集上训练决策树。为了花费更少的时间来训练这个模型,下列哪种做法是正确的

A. 增加树的深度

B. 增加学习率

C. 减少树的数量

D. 减小树的深度

解析:一般用决策树进行分类,从根结点开始,对实例的某一特征进行测试,根据测试结果,将实例分配到其子结点。这时,每一个子结点对应着该特征的一个取值。如此递归地对实例进行测试并分类,直至达到叶结点。最后将实例分到叶结点的类中。—— 引自李航 《统计学习方法》
决策树深度越深,在训练集上误差会越小,准确率越高。但是容易造成过拟合,而且增加模型的训练时间。对决策树进行修剪,减小树的深度,能够提高模型的训练速度,有效避免过拟合。
单决策树中,学习率不是一个有效参数。
决策树是单树,随机森林由多个决策树组成。

https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-9c80-c07f-52a228da601c.html
点击查看答案
随机森林的一大优势在于它既可用于分类,也可用于回归问题。

解析:正确

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-48e8-c07f-52a228da6002.html
点击查看答案
Relu激活函数的缺点?

A. 由于负数部分恒为0,会导致一些神经元无法激活

B. 输出不是以0为中心

C. 解决了梯度消失、爆炸的问题

D. 计算方便,计算速度快,求导方便

解析:见算法解析

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-3948-c07f-52a228da6022.html
点击查看答案
哪些技术是RCNN采用而FasterRCNN没有用?()

A. SVM分类

B. 使用SelectiveSearch输出候选框

C. 使用MLP进行分类与回归预测

D. 使用ROIpooling

解析:见算法解析

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-3560-c07f-52a228da600d.html
点击查看答案
试题通小程序
试题通app下载