218.我们在训练神经网络过程中,使用梯度下降法不断更新哪种数值,进而使得损失函数最小化?
A. 样本数目
B. 特征值
C. 超参数
D. 参数
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-5794-c0d7-b77d19146f00.html
点击查看答案
1、tanh激活函数输出关于0点对称,相比于Sigmoid函数可以加快模型的收敛。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-17e1-c0d7-b77d19146f00.html
点击查看答案
350.以下关于模型中参数与超参数的描述中,哪些选项是正确的?
A. 模型超参数通常由实践者直接指定
B. 模型超参数只能通过人工直接设定
C. 模型超参数通常根据给定的预测建模问题而调整
D. 模型超参数通常可以使用启发式方法来设置
解析:解析:1、模型超参数常应用于估计模型参数的过程中。2、模型超参数通常由实践者直接指定。3、模型超参数通常可以使用启发式方法来设置。4、模型超参数通常根据给定的预测建模问题而调整
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-c289-c0d7-b77d19146f00.html
点击查看答案
20.Cell提供了定义执行计算的基本模块,Cell的对象可以直接执行,以下说法有误的是?
A. bprop(可选),自定义模块的反向
B. 还有一些optim常用优化器、wrap常用网络包装函数等预定义Cell
C. ⱣⱤinit初始化参数(Parameter),子模块(Cel),算子(Primitive)等组件,进行初始化的校验
D. construct,定义执行的过程。图模式时,会被编译成图来执行,没有语法限制
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-9c44-c0d7-b77d19146f00.html
点击查看答案
489.数据不一致问题是指数据集中存在矛盾,有差异的记录
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d28-32ba-c0d7-b77d19146f00.html
点击查看答案
1、Nesterov优化器是动量优化器的变种。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-2537-c0d7-b77d19146f00.html
点击查看答案
1、以下关于Softsign函数的描述中,错误的是哪一项?(单)
A. Softsign函数相比tanh函数,容易饱和。
B. Softsign函数很难回避梯度消失的问题
C. Softsign函数远离函数中心点的位置,函数导数趋于0。
D. 选择Softsign函数的网络容易出现梯度退化现象,导致模型难以训练
解析:解析:A说反了,Softsign是Tanh激活函数的另一个替代选择
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-4a7c-c0d7-b77d19146f00.html
点击查看答案
1、CANN是华为面向深度神经网络和昇腾处理器打造的芯片使能层,主要提供芯片算子库和高度自动化算子开发工具。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-12ff-c0d7-b77d19146f00.html
点击查看答案
1、关于人工智能和机器学习的关系,以下说法正确的是哪一项?单
A. 所有的机器学习都是在模仿人脑的机制来解释数据,例如图像,声音和文本。
B. 所有机器学习算法都涉及到非常多的人工神经网络。
C. 深度学习包含机器学习,机器学习是深度学习的一个特例。
D. 机器学习可以应用统计学的知识进行分析。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-ba03-c0d7-b77d19146f00.html
点击查看答案
1、在达芬奇架构中关于矩阵计算,以下哪个选项和矩阵计算单元主要完成矩阵相关运算?单
A. 运算器
B. 寄存器
C. 累加器
D. 控制器
解析:解析:在(达芬奇)架构中,矩阵计算单元和累加器主要完成矩阵相关运算。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-d35d-c0d7-b77d19146f00.html
点击查看答案