1、多个logistic回归通过叠加也同样可以实现多分类的效果,多个logistic回归进行多分类,类与类之间是互斥的,即一个输入只能被归为一
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-d759-c0d7-b77d19146f00.html
点击查看答案
1、在全连接结构中,使用一个包含1000个神经元的隐藏层处理一张100*100分辨率的图片,不考虑偏置项,以下哪一项是正确的参数量?单
A. 10000
B. 100000
C. 1000000
D. 10000000
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d26-2dd5-c0d7-b77d19146f00.html
点击查看答案
1、以下关于集成学习的描述中,哪一项是错误的?(单)
A. 通过使用多个学习器,集成的泛化能力可以比单个学习器强得多。
B. 集成学习模型包含多个子学习器,为提高效率它们以并行的方式进行训练。
C. 集成学习是一种机器学习范式,在这种范式中,多个学习器被训练和组合以解决同一个问题。
D. 集成学习中Bagging以及Boosting的构建逻辑有所不同。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-0ae3-c0d7-b77d19146f00.html
点击查看答案
368.以下哪些选项是CNN网络结构?
A. Inception
B. Bert
C. AlexNet
D. VGG
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-d431-c0d7-b77d19146f00.html
点击查看答案
273.On-Device执行,即整图卸载执行,充分发挥异腾芯片的算力,可以大大降低交On-Device执行,即整图卸载执行,充分发挥异腾芯片的算力,可以大大降低交互的开销,从而提升加速器占用率,关于0n-Device执行以下描述错误的是?
A. 11Reduce,数据驱动方法自主A11Reduce,无控制开销
B. 超强芯片算力下模型执行的挑战:内存墙问题、交互开销大、数据供给难。部分在Host执行,部分在Device执行,交互开销甚至远大于执行开销,导致加速器占用率低
C. MindSpore通过面向芯片的深度图优化技术,同步等待少,最大化“数据计算通信”的并行度,训练性能相比Host侧图调度方式持平
D. 超强芯片算力下分布式梯度聚合的挑战:ReslNet50单迭代20ms时间时会产生中心控制的同步开销和频繁同步的通信开销。传统方法需要3次同步完成
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-81b0-c0d7-b77d19146f00.html
点击查看答案
164.现阶段的人工智能仍处于弱人工智能阶段。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-2e04-c0d7-b77d19146f00.html
点击查看答案
338.如果把寻找最优值的过程看做小球滚到山底的过程,以下关于动量优化器的描述,正确的是哪些项?
A. 带有惯性的小球更容易滚过一些狭窄的局部极值。
B. 仍需要手动设置学习率和动量系数。
C. 动量梯度下降是小球在下降的过程中不断积累速度,这有助于小球快速中过平坦区域,加快收敛
D. 动量梯度下降可以解决振荡导致学习速度降低的问题
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-b70d-c0d7-b77d19146f00.html
点击查看答案
1、在同一层卷积层中可以使用多个卷积核。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-fe4b-c0d7-b77d19146f00.html
点击查看答案
242.循环神经网络可以捕捉序列化数据中的动态信息。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d27-6a9a-c0d7-b77d19146f00.html
点击查看答案
1、Dropout只能使用在神经网络中用来防止过拟合
解析:解析:它也可以应用于其他机器学习模型或者深度学习模型的训练中,用来减少模型的复杂度,提高泛化能力。
https://www.shititong.cn/cha-kan/shiti/0000bc71-7d25-42fc-c0d7-b77d19146f00.html
点击查看答案