A、无界深度优先搜索
B、深度优先搜索
C、有界深度优先搜索
D、启发式搜索
答案:D
A、无界深度优先搜索
B、深度优先搜索
C、有界深度优先搜索
D、启发式搜索
答案:D
A. 模式层
B. 文本层
C. 信息层
D. 知识层
解析:知识图谱在架构方面可分为模式层和数据层,模式层在数据层之上,是知识图谱核心,主要内容是知识图谱的数据结构,包括实体、关系、属性等知识类的层次结构。
A. -rw-r----- , -r--------
B. -rw-r--r-- , -r--r--r--
C. -rw-r--r-- , -r--------
D. -rw-r--rw- , -r-----r--
解析:解析:在linux操作系统中, /etc/passwd文件中的每个用户都有一个对应的记录行,记录着这个用户的一下基本属性。该文件对所有用户可读。
而/etc/shadow文件正如他的名字一样,他是passwd文件的一个影子,/etc/shadow文件中的记录行与/etc/passwd中的一一对应,它由pwconv命令根据/etc/passwd中的数据自动产生。但是/etc/shadow文件只有系统管理员才能够进行修改和查看
A. 是一种端到端学习的方法
B. 是一种监督学习的方法
C. 实现了非线性映射
D. 隐藏层数目大小对学习性能影响不大
A. &
B. *
C. #
D. //
A. 状态空间
B. 综合数据库
C. 规则集
D. 控制策略
A. sigmod函数
B. Relu函数
C. tanh函数
D. ELU函数
解析:见算法解析
A. LeNet
B. AlexNet
C. GoogLeNet
D. ResNets
解析:ResNets(Residual Networks)残差网络;LeNet是最早的卷积神经网络结构,AlexNet首次在CNN中成功应用了ReLU、Dropout和LRN等技术,GoogLeNet加入Inception网络结构来搭建一个稀疏性、高计算性能的网络结构,后三种网络都没有用到残差网络结构
A. 损失函数是用泰勒展式二项逼近,而GBDT只是一阶导数$;$对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;$节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的$;$XGBoost使用网格搜索,只能检测有限个值
解析:XGBoost类似于GBDT的优化版,不论是精度还是效率上都有了提升。与GBDT相比,具体的优点有:
1.损失函数是用泰勒展式二项逼近,而不是像GBDT里的就是一阶导数;
2.对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;
3.节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的。