A、(4, 3)
B、(3,4)
C、3
D、4
答案:A
解析:见算法解析
A、(4, 3)
B、(3,4)
C、3
D、4
答案:A
解析:见算法解析
A. 一种竞争学习型的无监督神经网络
B. 将高维输入数据映射到低维空间,保持输入数据在高维空间的拓扑结构
C. SMO寻优目标为每个输出神经元找到合适的权重
D. 输出层神经元以矩阵方式排列在二维空间
解析:SOM 的训练目标就是为每个输出层神经元找到合适的权向量,以达到保持拓扑结构的目的
A. 2016
B. 2017
C. 2018
D. 2019
A. 最小二乘法可以求解线性回归问题
B. 梯度下降法可以求解线性回归问题
C. 利用最小二乘法求解线性回归问题可能会出现局部最优解
D. 学习率是梯度下降法的重要参数
解析:线性最小二乘问题通过法方程解出来的一定是全局最优解, 事实上这是二次泛函的优化问题(更一般一点, 这是凸优化), 不会出现多个孤立的局部最优解
A. 学习率是网络自己学习得到的
B. 学习率是根据不同场景,人为设定的
C. 5e-08
D. 0.005
解析:见算法解析
A. 有监督
B. 无监督
C. 半监督
D. 都不是
A. 编译程序
B. 汇编程序
C. 应用程序
D. 可执行程序
解析:将高级语言源程序翻译成目标程序的翻译程序称为编译程序
A. Precision= tp / (tp + fp), Recall = tp / (tp + fn)
B. Precision = tp / (tn + fp), Recall = tp /(tp + fn)
C. Precision = tp / (tn + fn), Recall = tp /(tp + fp)
D. Precision = tp / (tp + fp), Recall = tp /(tn + fn)
A. 5
B. 6
C. 10
D. 3