答案:B
解析:EM(expectation-maximization)算法是Dempster,Laird和Rubin(DLR)三个人在1977年正式提出的.主要是用于在不完全数据的情况下计算最大似然估计.
答案:B
解析:EM(expectation-maximization)算法是Dempster,Laird和Rubin(DLR)三个人在1977年正式提出的.主要是用于在不完全数据的情况下计算最大似然估计.
A. 对前序相邻神经元所传递信息进行加权累加
B. 对加权累加信息进行非线性变化(通过激活函数)
C. 向前序相邻神经元反馈加权累加信息
D. 将加权累加信息向后续相邻神经元传递
A. date_time
B. date_range
C. to_timedelta
D. to_datetime
A. 符号主义
B. 连接主义
C. 行为主义
D. 模拟主义
解析:人工智能主要研究流派为符号主义、连接主义和行为主义
A. 自然语言系统
B. 机器学习
C. 专家系统
D. 人类感官模拟
解析:自然语言系统是对自然语言进行处理和理解的系统。自然语言信息系统的主要功能是机器对人们输入的自然语言进行处理和理解,并返回响应的结果。机器翻译属于自然语言系统,答案选A
A. 从偏差-方差分解的角度看,Boosting主要关注降低偏差
B. 从偏差-方差分解的角度看,Bagging主要关注降低方差
C. 随机森林简单、容易实现、计算开销小
D. Boosting不能基于泛化性能相当弱的学习器构建出很强的集成
解析:从偏差一方差分解的角度看,Boosting主要关住降低偏差,因此Boosting能基于泛化性能相当弱的学习器构建出很强的集成
A. 大小和旋转
B. 大小
C. 旋转
D. 缩放
解析:SIFT特征是基于物体上的一些局部外观的兴趣点而与影像的大小和旋转无关。
A. array([0, 1, 2, 3])
B. array[0, 1, 2, 3]
C. [0, 1, 2, 3]
D. array([0, 1, 2, 3, 4])
A. 广度优先搜索
B. 深度优先搜索
C. 有界深度优先搜索
D. 启发式搜索
A. 信息增益与训练数据集的信息熵之比
B. 信息增益与训练数据集的经验熵之比
C. 信息增益与训练数据集的条件熵之比
D. 信息增益与训练数据集的交叉熵之比
解析:当熵和条件熵中的概率由数据估计(特别是极大似然估计)得到时,所对应的熵与条件熵分别称为经验熵(empirical entropy)和经验条件熵(empirical conditional entropy)。