A、PCA
B、LSA
C、混合高斯
D、k-means
答案:CD
解析:PCA与LSA只能解决降维问题
A、PCA
B、LSA
C、混合高斯
D、k-means
答案:CD
解析:PCA与LSA只能解决降维问题
A. 0.6
B. 0.7
C. 0.8
D. 0.9
A. 2016
B. 2017
C. 2018
D. 2019
A. 平移
B. 删除
C. 移动
D. 收敛
解析:如果强行限制输出层的分布是标准化的,可能会导致某些特征模式的丢失,所以在标准化之后,BatchNorm会紧接着对数据做缩放和平移
A. 最大
B. 最小
C. 最长
D. 最短
解析:见算法解析
A. 确定输入层和输出层的结点数目。
B. 选择网络拓扑结构
C. 初始化权值和偏置
D. 去掉有遗漏值的训练样例,或用最合理的值来代替
解析:见算法解析
A. 向量中的最大值
B. 向量中的最小值
C. 向量中最大幅值元素的绝对值
D. 向量中最小幅值元素的绝对值
解析:参考《深度学习》P35
A. AlphaGo
B. AlphaGood
C. AlphaFun
D. Alpha
A. 原始矩阵的元素是非负数
B. 分解后矩阵的元素是非负数
C. 分解后矩阵的元素可以是负数
D. 没有“潜在语义空间的每一个维度都是正交的”这一约束条件
A. 样本数量太少
B. 样本数量过多
C. 模型太复杂
D. 模型太简单
解析:见算法解析
A. 数据集成
B. 数据管理
C. 数据治理
D. 数据可视化
解析:主要应用