A、平滑处理
B、标准化
C、特征构造
D、去除虚假数据
答案:D
A、平滑处理
B、标准化
C、特征构造
D、去除虚假数据
答案:D
A. 目标值
B. 结果
C. 自变量
D. 因变量
A. 原型聚类
B. 密度聚类
C. 层次聚类
A. 距离度量
B. k值选择
C. 分类决策规则
D. 函数间隔定义
解析:函数间隔定义是支持向量机的要素
A. 单元学习算法
B. 多层网络学习
C. 决策树学习
D. 概念学习
A. 扩展现实技术
B. 区块链技术
C. 数字孪生技术
D. 云计算
A. 防止模型欠拟合而加在损失函数后面的一项
B. L1范数符合拉普拉斯分布,是完全可微的
C. L1正则化项是模型各个参数的平方和的开方值
D. L1正则化可以产生稀疏权值矩阵,即产生一个稀疏模型,可以用于特征选择
解析:A、防止模型过拟合而加在损失函数后面的一项;B、L1范数符合拉普拉斯分布,是不完全可微的;C、L2正则化项是模型各个参数的平方和的开方值。
解析:错误
A. 池化操作采用扫描窗口实现
B. 池化层可以起到降维的作用
C. 常用的池化方法有最大池化和平均池化
D. 经过池化的特征图像变小了
解析:池化是一种down-sampling技术,本质是基于滑动窗口的思想,可以去除特征图中的冗余信息,降低特征图的维度。常用的是最大池化和平均池化
A. Key-Value
B. Key-Document
C. Key-Column
D. 图存储
A. bert分类效果优于word2vec
B. word2vec分类效果优于bert
C. 效果一致
D. 以上选项均不正确
解析:在数据量大的情况下,对于相同的文本分类任务,bert分类效果优于word2vec