A、对数几率回归
B、对数线性回归
C、极大似然法
D、正则化
答案:B
解析:见算法解析
A、对数几率回归
B、对数线性回归
C、极大似然法
D、正则化
答案:B
解析:见算法解析
A. 教育部
B. 科技部
C. 工业和信息化部
D. 商务部
A. 多分类学习
B. 对数几率回归
C. 线性判别分析
D. 多分类学习
解析:见算法解析
A. SOM网络
B. RBF网络
C. ART网络
D. ELman网络
A. 云计算
B. 因特网
C. 神经计算
D. 深度神经网络
A. 数据分布本身随时间变化,需要程序不停的重新适应,比如预测商品销售的趋势
B. 规则复杂程度低,且问题的规模较小的问题
C. 任务的规则会随时间改变,比如生产线上的瑕疵检测
D. 规则十分复杂或者无法描述,比如人脸识别和语音识别
A. 后续检验
B. Friedman检验
C. 交叉验证t检验
D. McNemar检验
解析:见算法解析
A. 广度优先搜索
B. 深度优先搜索
C. 有界深度优先搜索
D. 启发式搜索
解析:广度优先搜索会根据离起点的距离,按照从近到远的顺序对各节点进行搜索。而深度优先搜索会沿着一条路径不断往下搜索直到不能再继续为止,然后再折返,开始搜索下一条路径。广度优先搜索可以找出节点的最短路径,即可以解决最短路径问题。有界深度优先搜索为了解决深度有限搜索误入无穷分支,定出一个深度界限,在找寻达到这一深度界限而且还没有找到目标时,即返回重找。启发式搜索是利用问题拥有的启发信息来引导搜索,达到减少搜索范围、降低问题复杂度的目的,可以消除组合爆炸,并得到令人能接受的解(通常并不一定是最佳解)。所以如果存在最优解,广度优先搜索必然可以得到最优解,答案选A
A. 增大惩罚参数C
B. 减小惩罚参数C
C. 减小核函数系数(gamma值)
D. 增大核函数系数(gamma值)
解析:
C值小时对误差分类的惩罚减小,当C趋于0时,表示我们不再关注分类是否正确,只要求margin越大,容易欠拟合。