A、AlexNet 是一个八层的卷积神经网络
B、卷积神经网络中的建模学习,学习对象是每一层神经元的值
C、目标检测网络 SSD 的网络结构中包含卷积层
D、典型的卷积神经网络,由卷积层、池化层、激活层、全连接层等组成
答案:B
解析:见算法解析
A、AlexNet 是一个八层的卷积神经网络
B、卷积神经网络中的建模学习,学习对象是每一层神经元的值
C、目标检测网络 SSD 的网络结构中包含卷积层
D、典型的卷积神经网络,由卷积层、池化层、激活层、全连接层等组成
答案:B
解析:见算法解析
解析:n-gram可以表示单词间的位置关系所反映的语义关联
A. 用“与/或”图表示知识方便使用程序设计语言表达,也便于计算机存储处理。
B. “与/或”图表示知识时一定同时有“与节点”和“或节点”。
C. “与/或”图能方便地表示陈述性知识和过程性知识。
D. 能用“与/或”图表示的知识不适宜用其他方法表示。
A. GBDT梯度提升树
B. XGBoost
C. RF随机森林
D. LR线性回归
A. 非线性叠加态
B. 线性叠加态
C. 非线性暂态
D. 线性暂态
解析:量子计算机基本信息单位是量子比特,可同时具有0、1及其线性叠加态
A. lsmod
B. dirmod
C. modules
D. Modlist
解析:解析:最新的Linux发行版的内核只带了相对较小的“内置模块(built-in modules)”,其余的特定硬件驱动或者自定义功能作为“可加载模块”来让你选择地加载或卸载;内核模块可以动态地使用modprobe、insmod、rmmod、modinfo或者lsmod等命令地加载、卸载、查询模块,内置的模块总是在启动时就加载进了内核,不会被这些命令管理。
A. 残差均值总是为零
B. 残差均值总是小于零
C. 残差均值总是大于零
D. 以上说法都不对
解析:线性回归分析中,目标是残差最小化。残差平方和是关于参数的函数,为了求残差极小值,令残差关于参数的偏导数为零,会得到残差和为零,即残差均值为零。
A. 无悖性
B. 可扩充性
C. 继承性
D. 连贯性
解析:语义网络表达知识时,有向弧AKO 链、ISA 链是用来表达节点知识的继承性
A. 感知器
B. 线性单元
C. Sigmoid单元
D. Untied单元
A. 数据预处理
B. 异常记录
C. 规律寻找
D. 知识表示