A、增加网络层数,总能减小训练集错误率$;$减小网络层数,总能减小测试集错误率$;$增加网络层数,可能增加测试集错误率$;$
答案:C
A、增加网络层数,总能减小训练集错误率$;$减小网络层数,总能减小测试集错误率$;$增加网络层数,可能增加测试集错误率$;$
答案:C
A. 诊断型解释型$;$预测型决策型$;$设计型规划型$;$控制型调度型
A. 空洞卷积$;$黑洞卷积$;$细节卷积$;$返向卷积
A. 模型应该简单(防止过拟合);$;$在训练时最小化错误率(提高在训练集上的准确率)$;$可以利用已知的数据特性,例如稀疏、低秩等$;$将模型函数正则化
A. 机理$;$检索$;$设计$;$存储
A. 期望越大,方差越小
$;$方差反映的是随机变量和其数学期望之间的偏离程度
$;$期望反映的是随机变量取值的平均水平
$;$相关系数用来度量两个变量间的线性关系
A. 损失函数是用泰勒展式二项逼近,而GBDT只是一阶导数$;$对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;$节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的$;$XGBoost使用网格搜索,只能检测有限个值
A. 1$;$2$;$3$;$报错
A. BP算法是一种将输出层误差反向传播给隐藏层进行参数更新的方法$;$BP算法将误差从后向前传递,获得各层单元所产生误差,进而依据这个误差来让各层单元修正各单元参数$;$对前馈神经网络而言,BP算法可调整相邻层神经元之间的连接权重大小$;$在BP算法中,每个神经元单元可包含不可偏导的映射函数