A、 全局梯度下降比较稳定这种稳定性能帮助模型收敛到全局极值。
B、 全局梯度下降每次更新权值都需要计算所有的训练样例。
C、 当样本量过多时,不使用GPU做并行运算时,全局样度下降的收敛过程非常慢。
D、 使用GPU做并行运算时,小批量梯度下降完成一个epoch的速度比随机样度下降快。
答案:D
A、 全局梯度下降比较稳定这种稳定性能帮助模型收敛到全局极值。
B、 全局梯度下降每次更新权值都需要计算所有的训练样例。
C、 当样本量过多时,不使用GPU做并行运算时,全局样度下降的收敛过程非常慢。
D、 使用GPU做并行运算时,小批量梯度下降完成一个epoch的速度比随机样度下降快。
答案:D
A. IoT行业终端
B. 边缘计算设备
C. 消费终端
D. 公有云
A. MindSpore
B. Pytorch
C. Theand
D. TensorFlow
A. 大量缓存降低时延
B. 基于大吞吐量设计
C. 擅长逻辑控制
D. 擅长计算密集和易于并行的程序
解析:解析:不擅长逻辑控制
A. switch()
B. size()
C. asnumpy()
D. tensorⱣⱤadd(other:tensor)
A. HiAIEngine
B. HiAIFoundation
C. HiAIFramework
D. HiAIService
A. Fuzzing执行:根据模型覆盖率和配置策略随机地产生可信测试数据。
B. 产生评估报告:可以基于自带的或自定义的可信指标。
C. 可信增强:使用预置的方法增强AI模型可信程度。
D. 配置策略:根据威胁向量、可信需求定义测试策略,选择合适的测试数据产生方法。
解析:解析:(Fuzzing执行是一种用于软件系统的测试方法,而不是用于生成模型的可信测试数据的方法。)
A. 一阶张量可以理解成一个向量
B. MindSpore中最基础的数据结构是张量
C. 张量就是数据矩阵
D. 张量是基于向量和矩阵的推广
解析:解析:imageⱣⱤtaggingⱣⱤaksk这个函数的前2个参数分别是ak和sk,第3个参数是图像数据进行编码,第4个参数是url上的图片,如果使用本地图片,我们只需要这里传入空字符串即可,第5个参数是支持的语言,目前支持中文(“zh”)和英文(“en”),第6个参数表示最多返回的标签数,默认为-1的话,代表返回所有标签,第7个参数指的是置信度的阈值(0~100),低于此置信数的标签,将不会返回,默认值为0。
A. Int16
B. FP32
C. FP16
D. Int8