1、以下关于梯度下降的描述中,哪些选项是错误的?多
A. 批量梯度下降(BGD)每次使用所有的训练样本进行训练。
B. BGD最不稳定,并且过于消耗运算资源。
C. MBGD是SGD与BGD平衡之后的方法,因此对于所有数据集来说这种方法是最好的。
D. SGD中,因为每次训练选取的样本是随机的,这本身就带来了不稳定性,会导致损失函数在下降到最低点的过程中,产生动荡甚至反向的位移。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-cc37-c0d7-b77d19146f00.html
点击查看答案
73.TensorFlow2.0中查看张量维度的方法是?
A. dtype
B. dimens
C. ndim
D. device
解析:解析:#device:负责运行kernel的具体硬件设备抽象
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-d183-c0d7-b77d19146f00.html
点击查看答案
1、以下哪项关于卷积神经网络的说法是错误的?(单)
A. 卷积神经网络可以包含卷积层,池化层和全连接层
B. 在处理图片时,是以扫描窗口的方式对图像做卷积
C. 常见的池化层有最大池化与平均池化。
D. 卷积核不可以用来提取图片全局特征
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-4bc6-c0d7-b77d19146f00.html
点击查看答案
30.以下选项中不属于超参数搜索方法的是哪一项?
A. 网格搜索
B. 聚类算法
C. 贝叶斯搜索
D. 随机搜索
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-a77a-c0d7-b77d19146f00.html
点击查看答案
58.以下哪项技术的研究与发展能够提升模型训练的精度?
A. 自动并行
B. 二阶优化
C. 数据加速
D. 内存复用
解析:解析:二阶方法能够更快地求得更高精度的解,但是在神经网络这类深层模型中,不高的精度对模型还有益处,能够提高模型的泛化能力
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-c34b-c0d7-b77d19146f00.html
点击查看答案
1、AI技术领域层面主要包含以下哪些选项?(多)
A. 反向传播算法
B. 专家系统
C. 智慧金融
D. 计算机视觉
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-1ec5-c0d7-b77d19146f00.html
点击查看答案
1、为防止过拟合,在训练过程中,可以插入对验证集数据的测试。当发现验证集数据的Loss上升时,提前停止训练。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-4428-c0d7-b77d19146f00.html
点击查看答案
1、以下关于机器学习常见算法的说法中,哪一项是错误的?(单)
A. 随机森林对列采样引入了随机性,因此无需剪枝也不容易发生过拟合
B. SVM的核心思路是找到一条直线,使离直线比较近的点,尽可能远离这条直线。
C. Xgboost收敛速度快,对于异常值不敏感。
D. 朴素贝叶斯是一种简单的分类算法,基于贝叶斯定理,并假设特征之间是独立的。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-3cbb-c0d7-b77d19146f00.html
点击查看答案
270.下列选项中不支持TensorFLow2.0进行维度变换的属性是。
A. squeeze
B. reshape
C. gather
D. transpose
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-7fb2-c0d7-b77d19146f00.html
点击查看答案
1、Atlas系列产品覆盖训练、推理场景,服务器、边缘计算、加速模块等产品形态。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-9c70-c0d7-b77d19146f00.html
点击查看答案