答案:B
解析:防止过拟合
A. k值并不是越大越好,k值过大,会降低运算速度
B. 选择更大的k值,会让偏差更小,因为k值越大,训练集越接近整个训练样本
C. 选择合适的k值,能减小验方差
D. 以上说法都正确
A. 可以
B. 不好说
C. 不一定
D. 不能
解析:使用ReLU激活函数的神经网络是能够模拟出同或函数的。但如果ReLU激活函数被线性函数所替代之后,神经网络将失去模拟非线性函数的能力
A. print(names[-1])
B. print(names[0])
C. print(names[len(names)])
D. print(names[len(names)-1])
解析:见函数库
A. 信息增益与训练数据集的信息熵之比
B. 信息增益与训练数据集的经验熵之比
C. 信息增益与训练数据集的条件熵之比
D. 信息增益与训练数据集的交叉熵之比
解析:当熵和条件熵中的概率由数据估计(特别是极大似然估计)得到时,所对应的熵与条件熵分别称为经验熵(empirical entropy)和经验条件熵(empirical conditional entropy)。
解析:正确
解析:正确
A. 1
B. 2
C. 10
D. 7
A. Caffe
B. TensorFlow
C. MLOps
D. PaddlePaddle
A. k 值并不是越大越好,k 值过大,会降低运算速度
B. 选择更大的 k 值,会让偏差更小,因为 k 值越大,训练集越接近整个训练样本
C. 选择合适的 k 值,能减小验方差
D. k 折交叉验证能够有效提高模型的学习能力
A. 新一代技术平台
B. 新一代信息技术和服务业态
C. 新一代服务业态
D. 新一代信息技术