A、增加网络层数,可能会增加测试集分类错误率
B、增加网络层数,一定会增加训练集分类错误率
C、减少网络层数,可能会减少测试集分类错误率
D、减少网络层数,一定会减少训练集分类错误率
答案:AC
解析:一般来说,神经网络层数越多,模型越复杂,对数据的分类效果越好。所以,从最简单的层数开始,增加网络层数都能使得训练误差和测试误差减小。但是,神经网络层数过多容易造成过拟合,即对训练样本分类效果很好,误差小,但是测试误差很大。
为了避免发生过拟合,应该选择合适的神经网络层数并使用正则化技术来让神经网络更加稳健。
A、增加网络层数,可能会增加测试集分类错误率
B、增加网络层数,一定会增加训练集分类错误率
C、减少网络层数,可能会减少测试集分类错误率
D、减少网络层数,一定会减少训练集分类错误率
答案:AC
解析:一般来说,神经网络层数越多,模型越复杂,对数据的分类效果越好。所以,从最简单的层数开始,增加网络层数都能使得训练误差和测试误差减小。但是,神经网络层数过多容易造成过拟合,即对训练样本分类效果很好,误差小,但是测试误差很大。
为了避免发生过拟合,应该选择合适的神经网络层数并使用正则化技术来让神经网络更加稳健。
解析: Precision不变时,Recall越大,1/Recall越小,从而F1越大;Recall不变时,Precision越大,1/Precision越小,从而F1越大。精确率越高越好,召回率越高越好。正确
A. 降低特征维度
B. 增加样本数量
C. 添加正则项
D. 增加特征维度
A. BP算法
B. 支持向量机
C. 一般的“核”方法习
D. 决策树
解析:二十世纪九十年代中期,“统计学习”闪亮登场并迅速占据主流舞台,代表性技术是支持向量机以及更一般的“核方法”。
A. catch
B. exception
C. catch(a)
D. except
解析:见函数库
解析:正确
A. L1 正则化可以做特征选择
B. L1 和 L2 正则化均可做特征选择
C. L2 正则化可以做特征选择
D. L1 和 L2 正则化均不可做特征选择
A. 被建模系统内在的随机性
B. 不完全观测
C. 不完全建模
D. 不完全判断
解析:参考《深度学习》P48