A、中间&;&核心&;&边侧&;&侧边
答案:C
解析:主要应用
A、中间&;&核心&;&边侧&;&侧边
答案:C
解析:主要应用
A. 在训练神经网络过程中,参数不断调整,其调整的依据是基于损失函数不断减少
B. 每一次Epoch都会对之前的参数进行调整,迭代次数越多,损失函数一般越小
C. 模型参数量越多越好,没有固定的对应规则
D. 训练好的神经网络模型存储于一定结构的神经元之间的权重和神经元的偏置中
解析:几乎模型每个操作所需的时间和内存代价都会随模型参数量的增加而增加
A. 线性回归
B. 深度残差网络
C. 卷积神经网络CNN
D. 循环神经网络RNN
解析:线性回归是传统统计学系呢绒
A. 数据挖掘的成功经常依赖于数据挖掘工具的选择
B. 虽然数据可视化具有很明显的吸引力,高维数据上的图形挖掘却不能够很轻易地完成
C. 主成分分析能在不明显丢失信息的情况下降低数据维度
D. 数据挖掘就是从处理过后的数据中进行知识提取
解析:数据挖掘是从大量的、不完全的、有噪声的、模糊的、随机的实际数据中,提取出蕴涵在其中的,人们事先不知道的,但是具有潜在有用性的信息和知识的过程。并非是从处理后的数据提取知识,D项错误,其他选项正确,答案ABC
A. 状态
B. 类型
C. 种类
D. 属性
A. break
B. pass
C. continue
D. print
解析:pass是空语句,一般用做占位语句,不做任何事情。
A. 信息增益与训练数据集的信息熵之比
B. 信息增益与训练数据集的经验熵之比
C. 信息增益与训练数据集的条件熵之比
D. 信息增益与训练数据集的交叉熵之比
解析:当熵和条件熵中的概率由数据估计(特别是极大似然估计)得到时,所对应的熵与条件熵分别称为经验熵(empirical entropy)和经验条件熵(empirical conditional entropy)。