APP下载
首页
>
IT互联网
>
计算机知识技术题库
搜索
计算机知识技术题库
题目内容
(
判断题
)
交叉熵损失函数的设计是基于最大似然思想:最大概率得到观察结果的假设是真的

答案:A

解析:正确

计算机知识技术题库
处理数据的五个环节分别是:1.()2.()3.()4.()5.校验数据有效性
https://www.shititong.cn/cha-kan/shiti/0005e5d0-af1d-cb88-c021-5dd340f2241c.html
点击查看题目
机器学习中评价指标有哪些()
https://www.shititong.cn/cha-kan/shiti/0005e5d0-af1d-cf70-c021-5dd340f22415.html
点击查看题目
当我们在分析一份数据的时候,如果发现这份数据的特征变量很多,成千上万,如果直接基于所有的特征变量进行分析,会浪费过多的时间成本及计算资源,为了应对这种情况,我们可以采用降维的方式对数据进行预处理,如下技术中,哪些属于降维技术()
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e9-2ce0-c021-5dd340f2241d.html
点击查看题目
对于DBSCAN,参数Eps固定,当MinPts取值较大时,会导致
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a626-4730-c021-5dd340f22407.html
点击查看题目
在训练神经网络过程中我们目的是让损失函数不断减小,我们常用以下哪种方法最小化损失函数
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a626-3b78-c021-5dd340f22417.html
点击查看题目
()贪婪最佳优先搜索采用的是盲目搜索策略。
https://www.shititong.cn/cha-kan/shiti/0005e5d0-b2fe-f1a0-c021-5dd340f2241b.html
点击查看题目
对于非连续目标在深度神经网络的优化过程中,AdaGrad梯度下降方法是最好的
https://www.shititong.cn/cha-kan/shiti/0005e5d0-b2fe-e9d0-c021-5dd340f2242c.html
点击查看题目
在聚类分析当中,MAX(全链)技术可以处理任意形状的簇
https://www.shititong.cn/cha-kan/shiti/0005e5d0-b2fe-edb8-c021-5dd340f22422.html
点击查看题目
在分类问题中,我们经常会遇到正负样本数据量不等的情况,比如正样本为 10w条数据,负样本只有 1w条数据,以下最合适的处理方法是
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e9-1d40-c021-5dd340f2241a.html
点击查看题目
L1 和 L2 正则化是传统机器学习常用来减少泛化误差的方法,以下关于两者的说法正确的是:
https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e8-d308-c021-5dd340f22408.html
点击查看题目
首页
>
IT互联网
>
计算机知识技术题库
题目内容
(
判断题
)
手机预览
计算机知识技术题库

交叉熵损失函数的设计是基于最大似然思想:最大概率得到观察结果的假设是真的

答案:A

解析:正确

分享
计算机知识技术题库
相关题目
处理数据的五个环节分别是:1.()2.()3.()4.()5.校验数据有效性

A. 读入数据

B. 拆分样本集合

C. 训练样本集乱序

D. 生成批次数据

解析:见算法解析

https://www.shititong.cn/cha-kan/shiti/0005e5d0-af1d-cb88-c021-5dd340f2241c.html
点击查看答案
机器学习中评价指标有哪些()

A. Accuracy

B. Precision

C. Recall

D. Iou

解析:见算法解析

https://www.shititong.cn/cha-kan/shiti/0005e5d0-af1d-cf70-c021-5dd340f22415.html
点击查看答案
当我们在分析一份数据的时候,如果发现这份数据的特征变量很多,成千上万,如果直接基于所有的特征变量进行分析,会浪费过多的时间成本及计算资源,为了应对这种情况,我们可以采用降维的方式对数据进行预处理,如下技术中,哪些属于降维技术()

A. 主成分分析

B. 因子分析

C. 独立主成分分析

D. SVM

https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e9-2ce0-c021-5dd340f2241d.html
点击查看答案
对于DBSCAN,参数Eps固定,当MinPts取值较大时,会导致

A. 能很好的区分各类簇

B. 只有高密度的点的聚集区划为簇,其余划为噪声

C. 低密度的点的聚集区划为簇,其余的划为噪声

D. 无影响 

https://www.shititong.cn/cha-kan/shiti/0005e5d0-a626-4730-c021-5dd340f22407.html
点击查看答案
在训练神经网络过程中我们目的是让损失函数不断减小,我们常用以下哪种方法最小化损失函数

A.
梯度下降

B. Dropout

C. 交叉验证

D. 正则化

解析:梯度下降是我们最常用的最小化损失函数的方法

https://www.shititong.cn/cha-kan/shiti/0005e5d0-a626-3b78-c021-5dd340f22417.html
点击查看答案
()贪婪最佳优先搜索采用的是盲目搜索策略。
https://www.shititong.cn/cha-kan/shiti/0005e5d0-b2fe-f1a0-c021-5dd340f2241b.html
点击查看答案
对于非连续目标在深度神经网络的优化过程中,AdaGrad梯度下降方法是最好的
https://www.shititong.cn/cha-kan/shiti/0005e5d0-b2fe-e9d0-c021-5dd340f2242c.html
点击查看答案
在聚类分析当中,MAX(全链)技术可以处理任意形状的簇
https://www.shititong.cn/cha-kan/shiti/0005e5d0-b2fe-edb8-c021-5dd340f22422.html
点击查看答案
在分类问题中,我们经常会遇到正负样本数据量不等的情况,比如正样本为 10w条数据,负样本只有 1w条数据,以下最合适的处理方法是

A. 将负样本重复 10 次,生成 10w 样本量,打乱顺序参与分类&;&直接进行分类,可以最大限度利用数据&;&从 10w 正样本中随机抽取 1w 参与分类&;&将负样本每个权重设置为 10,正样本权重为 1,参与训练过程

解析:基础概念

https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e9-1d40-c021-5dd340f2241a.html
点击查看答案
L1 和 L2 正则化是传统机器学习常用来减少泛化误差的方法,以下关于两者的说法正确的是:

A. L1 正则化可以做特征选择

B. L1 和 L2 正则化均可做特征选择

C. L2 正则化可以做特征选择

D. L1 和 L2 正则化均不可做特征选择

https://www.shititong.cn/cha-kan/shiti/0005e5d0-a7e8-d308-c021-5dd340f22408.html
点击查看答案
试题通小程序
试题通app下载