APP下载
首页
>
IT互联网
>
随便搞的题库做做
搜索
随便搞的题库做做
题目内容
(
单选题
)
从给定的特征集合中选择出相关特征子集的过程,称为(___)

A、特征抽取$;$特征选择$;$特征降维$;$特征简化

答案:B

随便搞的题库做做
VGG从增加网络宽度角度改进了之前的图像分类网络
https://www.shititong.cn/cha-kan/shiti/0005e939-e59d-1148-c07f-52a228da600a.html
点击查看题目
以下属于现有的文本情感分析的途径的是。
https://www.shititong.cn/cha-kan/shiti/0005e939-e59d-0978-c07f-52a228da601d.html
点击查看题目
人工智能之父是( )。
https://www.shititong.cn/cha-kan/shiti/0005e939-dbd2-00b0-c07f-52a228da6005.html
点击查看题目
通过迭代优化来近似求解的是()
https://www.shititong.cn/cha-kan/shiti/0005e939-eb78-9830-c07f-52a228da600a.html
点击查看题目
自然语言处理的应用方向有()等
https://www.shititong.cn/cha-kan/shiti/0005e939-e31f-9dc8-c07f-52a228da601e.html
点击查看题目
全局变量会增加不同函数之间的隐式耦合度,从而降低代码可读性,因此应尽量避免过多使用全局变量。
https://www.shititong.cn/cha-kan/shiti/0005e939-eea4-e950-c07f-52a228da6033.html
点击查看题目
在机器学习中,如果单纯去提高训练数据的预测能力,所选模型的复杂度往往会很高,这种现象称为过拟合。对于产生这种现象以下说法正确的是()
https://www.shititong.cn/cha-kan/shiti/0005e939-e31f-ad68-c07f-52a228da601b.html
点击查看题目
增加卷积核的大小对于改进卷积神经网络的效果是必要的
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-e268-c07f-52a228da602f.html
点击查看题目
关于线性回归说法正确的是()
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-d6b0-c07f-52a228da6017.html
点击查看题目
对于Word2vec的2个基础算法,每次梯度更新只能优化一个向量且softmax里的指数求和操作计算量太大,一般使用比较高效的负采样算法。
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-bb58-c07f-52a228da601b.html
点击查看题目
首页
>
IT互联网
>
随便搞的题库做做
题目内容
(
单选题
)
手机预览
随便搞的题库做做

从给定的特征集合中选择出相关特征子集的过程,称为(___)

A、特征抽取$;$特征选择$;$特征降维$;$特征简化

答案:B

分享
随便搞的题库做做
相关题目
VGG从增加网络宽度角度改进了之前的图像分类网络
https://www.shititong.cn/cha-kan/shiti/0005e939-e59d-1148-c07f-52a228da600a.html
点击查看答案
以下属于现有的文本情感分析的途径的是。

A. 关键词识别$;$词汇关联$;$统计方法$;$概念级技术

https://www.shititong.cn/cha-kan/shiti/0005e939-e59d-0978-c07f-52a228da601d.html
点击查看答案
人工智能之父是( )。

A. 图灵$;$恰佩克$;$诺贝尔$;$奥巴

https://www.shititong.cn/cha-kan/shiti/0005e939-dbd2-00b0-c07f-52a228da6005.html
点击查看答案
通过迭代优化来近似求解的是()

A. 学习向量量化$;$k均值算法$;$高斯混合聚类$;$以上都不对

https://www.shititong.cn/cha-kan/shiti/0005e939-eb78-9830-c07f-52a228da600a.html
点击查看答案
自然语言处理的应用方向有()等

A. 信息检索$;$文本抽取$;$问答系统$;$机器翻译

https://www.shititong.cn/cha-kan/shiti/0005e939-e31f-9dc8-c07f-52a228da601e.html
点击查看答案
全局变量会增加不同函数之间的隐式耦合度,从而降低代码可读性,因此应尽量避免过多使用全局变量。
https://www.shititong.cn/cha-kan/shiti/0005e939-eea4-e950-c07f-52a228da6033.html
点击查看答案
在机器学习中,如果单纯去提高训练数据的预测能力,所选模型的复杂度往往会很高,这种现象称为过拟合。对于产生这种现象以下说法正确的是()

A. 样本数量太少$;$样本数量过多$;$模型太复杂$;$模型太简单

https://www.shititong.cn/cha-kan/shiti/0005e939-e31f-ad68-c07f-52a228da601b.html
点击查看答案
增加卷积核的大小对于改进卷积神经网络的效果是必要的
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-e268-c07f-52a228da602f.html
点击查看答案
关于线性回归说法正确的是()

A. 输入特征是非随机的且互不相关的 $;$随机误差具有零均值,同方差的特点 $;$随机误差彼此间不相关 $;$输入特征于随机误差不相关

https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-d6b0-c07f-52a228da6017.html
点击查看答案
对于Word2vec的2个基础算法,每次梯度更新只能优化一个向量且softmax里的指数求和操作计算量太大,一般使用比较高效的负采样算法。
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-bb58-c07f-52a228da601b.html
点击查看答案
试题通小程序
试题通app下载