A、特征灵活
B、速度快
C、可容纳较多上下文信息
D、全局最优
答案:ACD
解析:最大熵隐马模型则解决了隐马的问题,可以任意选择特征,但由于其在每一节点都要进行归一化,所以只能找到局部的最优值,同时也带来了标记偏见的问题,即凡是训练语料中未出现的情况全都忽略掉。条件随机场则很好的解决了这一问题,他并不在每一个节点进行归一化,而是所有特征进行全局归一化,因此可以求得全局的最优值。
A、特征灵活
B、速度快
C、可容纳较多上下文信息
D、全局最优
答案:ACD
解析:最大熵隐马模型则解决了隐马的问题,可以任意选择特征,但由于其在每一节点都要进行归一化,所以只能找到局部的最优值,同时也带来了标记偏见的问题,即凡是训练语料中未出现的情况全都忽略掉。条件随机场则很好的解决了这一问题,他并不在每一个节点进行归一化,而是所有特征进行全局归一化,因此可以求得全局的最优值。
A. 正确$;$错误
A. 设计线性回归
B. 神经网络
C. 聚类分析
D. 矩阵计算
A. 贝叶斯的学习过程为对训练样本计数
B. 估计出每个结点的条件概率
C. 网络结构为已知
D. 评分搜索为求解的常用办法
解析:若网络结构己知,即属性间的依赖关系己知,则贝叶斯网的学习过程相对简单,只需通过对训练样本“计数”,估计出每个结点的条件概率表即可,但在现实应用中我们往往并不知晓网络结构,于是,贝叶斯网学习的首要任务就是根据训练数据集来找出结构最"恰当"的贝叶斯网
A. 数字化
B. 量化
C. 去噪声
D. 清洗
解析:图像数字化分为两个步骤:一为取样,二为量化。
A. a[1:-1]
B. a*3
C. a[2] = 4
D. list(a)
解析:过拟合的解决方法有:正则化,调节参数,交叉验证,选择合适的训练集和测试集百分比等。
A. 前向后
B. 后向前
C. 左向右
D. 右向左
解析:见算法解析