A、[[ 1., 2., 1.],[ 4., 5., 4.]]
B、[[ 4., 5., 4.],[ 4., 5., 4.]]
C、以上都不对
D、[[ 4., 5., 4.],[ 1., 2., 1.]]
答案:C
A、[[ 1., 2., 1.],[ 4., 5., 4.]]
B、[[ 4., 5., 4.],[ 4., 5., 4.]]
C、以上都不对
D、[[ 4., 5., 4.],[ 1., 2., 1.]]
答案:C
A. 计算式人工智能
B. 生成式人工智能
C. 分析式人工智能
D. 决策式人工智能
A. 树的数量
B. 树的深度
C. 学习速率
A. 最小二乘法可以求解线性回归问题
B. 梯度下降法可以求解线性回归问题
C. 利用最小二乘法求解线性回归问题可能会出现局部最优解
D. 学习率是梯度下降法的重要参数
解析:线性最小二乘问题通过法方程解出来的一定是全局最优解, 事实上这是二次泛函的优化问题(更一般一点, 这是凸优化), 不会出现多个孤立的局部最优解
解析:应加大学习率
A. 增加网络宽度
B. 轻量化网络模型
C. 改善网络退化现象
D. 增加网络深度
解析:ResNet从改善网络退化现象角度改进了之前的图像分类网络
解析:被誉为国际“人工智能之父”的是图灵。错误
A. 梯度下降法
B. 拟牛顿法
C. 启发式优化方法
D. EM算法
解析:EM算法
A. 设计线性回归
B. 神经网络
C. 聚类分析
D. 矩阵计算
A. [0,1]
B. [-1,1]
C. (-∞~∞)
D. (0,1)
解析:Sigmoid函数将变量映射在0至1之间