239.L1和L2正则化是传统机器学习常用来减少泛化误差的方法,以下关于两者的说法正确的是:
A. L1正则化可以做特征选择
B. L1和L2正则化均可做特征选择
C. L2正则化可以做特征选择
D. L1和L2正则化均不可做特征选择
解析:解析:L1正则化通常更适用于特征选择,而L2正则化通常更适用于参数平滑。同时,也可以将L1和L2正则化结合使用,以获得更好的效果
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-681a-c0d7-b77d19146f00.html
点击查看答案
243.在对抗生成网络当中,带有标签的数据应该被放在哪里?
A. 作为生成模型的输出值
B. 作为判别模型的输入值
C. 作为判别模型的输出值
D. 作为生成模型的输入值
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-6b94-c0d7-b77d19146f00.html
点击查看答案
223.损失函数反映了神经网络的目标输出和实际输出的误差,在深度学习中常用的损失函数是:
A. 指数损失函数
B. 均方损失函数
C. 对数损失函数
D. Hinge损失函数
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-5b90-c0d7-b77d19146f00.html
点击查看答案
1、华为云ModelArts中有AIGallery,可以提供以下哪些内容?(多)
A. Notebook
B. 预置算法
C. IDE
D. 数据集
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-5a3a-c0d7-b77d19146f00.html
点击查看答案
141.Tensorflow是下面哪家公司开源的第二代用于数字计算的软件库?
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-1981-c0d7-b77d19146f00.html
点击查看答案
28.以下关于行为主义的说法中,哪些选项是正确的?
A. 行为主义认为智能行为只能在现实世界中,通过与周围环境的不断交互而表现出来。
B. 行为主义认为智能不需要知识、不需要表示、不需要推理。
C. 行为主义认为人工智能落脚点在行为控制、自适应与进化计算。
D. 行为主义认为人工智能可以像人类智能一样逐步进化。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d28-950c-c0d7-b77d19146f00.html
点击查看答案
2.以下关于机器学习常见算法的描述中,哪一项说法是正确的?
A. K-means算法不能够保证收敛。
B. 现有一个点能被正确分类且远离决策边界。如果将该点加入到训练集则SVM的边界会受其影响
C. 朴素贝叶斯是借助树状结构来刻画属性间的依赖关系。
D. 聚类试图将数据集中的样本划分为若干个子集每个子集称为一个"簇
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-8a7e-c0d7-b77d19146f00.html
点击查看答案
123.深度学习中如果神经网络的层数较多比较容易出现梯度消失问题,严格意义上来讲是在以下哪个环节出现梯度消失问题
A. 正向传播计算结果
B. 反向传播更新参数
C. 正向传播更新参数
D. 反向传播计算结果
解析:解析:其实梯度爆炸和梯度消失问题都是因为网络太深,网络权值更新不稳定造成的,本质上是因为梯度反向传播中的连乘效应
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-053b-c0d7-b77d19146f00.html
点击查看答案
96.MindSpore中,Tensor初始化时,如果包含多种不同类型的数据,则按照以下哪一项优先级完成数据类型转换?
A. int<bool<float
B. int<float<bool
C. bool<floatsint
D. bool<ints<float
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-e91b-c0d7-b77d19146f00.html
点击查看答案
499.机器学习类型中计算机程序需要指定输入属于k(k>=2)类中的哪一类的算法是:()算法
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d28-3c60-c0d7-b77d19146f00.html
点击查看答案