A、防止模型欠拟合而加在损失函数后面的一项
B、L1范数符合拉普拉斯分布,是完全可微的
C、L1正则化项是模型各个参数的平方和的开方值
D、L1正则化可以产生稀疏权值矩阵,即产生一个稀疏模型,可以用于特征选择
答案:D
解析:A、防止模型过拟合而加在损失函数后面的一项;B、L1范数符合拉普拉斯分布,是不完全可微的;C、L2正则化项是模型各个参数的平方和的开方值。
A、防止模型欠拟合而加在损失函数后面的一项
B、L1范数符合拉普拉斯分布,是完全可微的
C、L1正则化项是模型各个参数的平方和的开方值
D、L1正则化可以产生稀疏权值矩阵,即产生一个稀疏模型,可以用于特征选择
答案:D
解析:A、防止模型过拟合而加在损失函数后面的一项;B、L1范数符合拉普拉斯分布,是不完全可微的;C、L2正则化项是模型各个参数的平方和的开方值。
A. 脱敏数据
B. 数据订阅
C. 知识库
D. 决策支持
A. SIFT
B. HOG
C. SVM
D. Adaboost
解析:见算法解析
A. 零次数据
B. 一次数据
C. 二次数据
D. 三次数据
解析:前n行数据
A. A.a%0.001 B.a//0.001 C.round(a,3) D.round(3,a)
解析:本题主要考查Python函数。round(x,n)方法返回 x 的小数点四舍五入到n个数字,故要实现将实数型变量a的值保留三位小数,可以使用语句round(a,3),故本题选C选项。
解析:正确
解析:正确
A. 基于数据挖掘的专家智能控制
B. 基于遗传算法的软计算控制
C. 基于人工神经网络的神经网络控制
D. 以上说法都不对
解析:基础概念
A. 卷积神经网络
B. 循环神经网络
C. word2vec
D. bert
解析:通常使用的处理图像数据的网络模型是卷积神经网络