A、输出层与输入层之间包含隐含层,且隐含层和输出层都拥有激活函数的神经元
B、神经元之间存在这同层连接以及跨层连接
C、 输入层仅仅是接收输入,不进行函数处理
D、每层神经元上一层与下一层全互连
答案:B
解析:神经网络每层神经元与下层神经完全互连,神经元之间不存在同层连接,也不存在跨层连接,这样的神经网络结构通常称为“多层前馈神经网络”
A、输出层与输入层之间包含隐含层,且隐含层和输出层都拥有激活函数的神经元
B、神经元之间存在这同层连接以及跨层连接
C、 输入层仅仅是接收输入,不进行函数处理
D、每层神经元上一层与下一层全互连
答案:B
解析:神经网络每层神经元与下层神经完全互连,神经元之间不存在同层连接,也不存在跨层连接,这样的神经网络结构通常称为“多层前馈神经网络”
A. 用“与/或”图表示知识方便使用程序设计语言表达,也便于计算机存储处理。
B. “与/或”图表示知识时一定同时有“与节点”和“或节点”。
C. “与/或”图能方便地表示陈述性知识和过程性知识。
D. 能用“与/或”图表示的知识不适宜用其他方法表示。
A. 从文本中提取特征
B. 测量特征相似度
C. 为学习模型的向量空间编程特征
D. 以上都是
A. 理论论证、原型实践
B. 假设检验、逻辑推理
C. 模式识别、在线验证
D. 行为校验、合理分析
解析:清华大学首次提出“类脑计算完备性”概念以及软硬件去耦合的类脑计算系统层次结构,通过理论论证、原型实践证明该类系统的硬件完备性与编译可行性。
A. 增加网络宽度
B. 轻量化网络模型
C. 改善网络退化现象
D. 增加网络深度
解析:ResNet从改善网络退化现象角度改进了之前的图像分类网络
A. GBDT 算法比随机森林容易欠拟合
B. 随机森林是并行计算的,而 GBDT 不能
C. GBDT 算法比随机森林容易过拟合
D. GBDT 与随机森林都是建立在 CART 树的基础之上的
A. 图像识别$;$认知模拟$;$规划问题求解$;$数据挖掘
解析:可以同时使用
A. LeNet
B. AlexNet
C. LSTM
D. RNN
解析:AlexNet使用了8层卷积神经网络,2012年以很大的优势赢得了ImageNet图像识别挑战赛。