A、从文本中提取特征
B、测量特征相似度
C、为学习模型的向量空间编程特征
D、以上都是
答案:D
A、从文本中提取特征
B、测量特征相似度
C、为学习模型的向量空间编程特征
D、以上都是
答案:D
A. SVM
B. 随机梯度下降
C. 随机失活
D. 批标准化
解析:主要应用
解析:广度优先搜索算法中,OPEN 表的数据结构实际是一个 二叉树,深度优先搜索算法中,OPEN 18.产生式系统有三部分组成 综合数据库,知识库和推理机。
A. 不存在这样的二叉树
B. 200
C. 198
D. 199
解析:根据二叉树的性质,在任意一棵二叉树中,度为0的结点总是比度为2的结点多一个,则度为0的结点数为199+1=200。
A. 特征灵活
B. 速度快
C. 可容纳较多上下文信息
D. 全局最优
解析:最大熵隐马模型则解决了隐马的问题,可以任意选择特征,但由于其在每一节点都要进行归一化,所以只能找到局部的最优值,同时也带来了标记偏见的问题,即凡是训练语料中未出现的情况全都忽略掉。条件随机场则很好的解决了这一问题,他并不在每一个节点进行归一化,而是所有特征进行全局归一化,因此可以求得全局的最优值。
A. 感知器由2层神经元组成,是一个单层的前馈神经网络
B. 输入结点把接收到的值传送给输出链,不作任何转换
C. 输出结点计算输入的加权和,加上偏置项,根据结果的符号产生输出
D. 训练阶段,权值参数不断调整,直至模型输出和训练样例的实际输出一致
解析:见算法解析
A. 可以存储许多相关(激励,响应)模式对
B. 以分布、稳健的方式存储信息
C. 即使输入激励模式完全失真时,仍然可以产生正确的响应模式
D. 可在原存储中加入新的存储模式
A. K近邻算法
B. 随机森林
C. 神经网络
D. 都不属于
解析:神经网络会将数据转化为更适合解决目标问题的形式,我们把这种过程叫做特征学习。
A. 熵越大,不确定性越大,信息量也就越大
B. 信息增益越大,表示某个条件熵对信息熵减少程序越大,也就是说,这个属性对于信息的判断起到的作用越大
C. Gini指数越大,不纯度越小,越容易区分,越不容易分错
D. 熵权法是一种客观赋权法,因为它仅依赖于数据本身的离散性
A. 1比2
B. 2比1
C. 1比1
D. 2比2
解析:见算法解析
A. 数据安全与隐私保护
B. AI模型攻防
C. 大数据威胁情报
D. 应用安全
解析:主要应用