180.损失函数与模型函数是一回事。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-3aac-c0d7-b77d19146f00.html
点击查看答案
1、关于机器学习的数据集,以下说法中哪一项是正确的?单
A. 数据集可分为训练集和测试集,其中测试集用于模型训练,即寻找特征与目标之间的关系。
B. 数据集中的样本指的是每条记录的不同属性,比如姓名,年龄,性别等信息。
C. 数据集的特征指的是每条记录的不同属性,比如姓名,年龄,性别等信息。
D. 有监督学习任务中,数据集的目标列一般不包含标签。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-0d87-c0d7-b77d19146f00.html
点击查看答案
41.以下关于普通梯度下降算法的描述,正确的是哪些项?(多)
A. 普通梯度下降算法一定能收敛到全局极值点。
B. 普通梯度下降算法给每个参数设置不同的学习率。
C. 普通梯度下降算法需要手工设置学习率。
D. 普通梯度下降算法容易陷入局部极值点。
解析:解析(不同的参数使用不同的学习率如果数据是稀疏的且特征分布不均,似乎我们更应该给予较少出现的特征一个大的更新。这时可能需要对不同特征对应的参数设定不同的学习率。)
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d28-a287-c0d7-b77d19146f00.html
点击查看答案
1、深度学习中,只能在训练阶段使用Dropout技术。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-90cc-c0d7-b77d19146f00.html
点击查看答案
4.根据所选特征评估标准,从上至下递归地生成子节点,直到数据集不可分则决策树停止生长,以下哪一个选项代表的是决策树构建过程中的这—步骤?
A. 决策树生成
B. 剪枝
C. 数据集重构
D. 特征选择
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-8c72-c0d7-b77d19146f00.html
点击查看答案
1、以下哪些项是神经网络在感知机的基础上做的改进?(多)
A. 加入隐藏层,隐藏层可以有多层,增强模型的表达能力。
B. 对激活函数做扩展,包括Sigmoid函数、Softmax和ReLU等。
C. 输出层的神经元也可以不止一个,可以有多个输出。
D. 引入了损失函数。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-bc1f-c0d7-b77d19146f00.html
点击查看答案
255.当使用TensorFlow2.0的keras接口搭建神经网络时,需要进行网络的编译工作,需要用到以下哪种方法?
A. compile
B. write
C. join
D. fit
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-740e-c0d7-b77d19146f00.html
点击查看答案
498.CART算法中分类树对于纯度的量化指标主要通过()系数。【输入中文】
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d28-3b5c-c0d7-b77d19146f00.html
点击查看答案
1、量子比特有着经典比特不具备的特点:量子态()和量子态纠缠。这使得量子比特不同于非0即1的经典比特,而是可以同时以0和1的状态存在并运算。【请输入中文】
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-5f4e-c0d7-b77d19146f00.html
点击查看答案
514.GBDT算法是集成学习中()算法的一种
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d28-4e58-c0d7-b77d19146f00.html
点击查看答案