A、局部变量指在函数内部使用的变量,当函数退出时,变量依然存在,下次函数调用可以继续使用
B、使用global保留字声明简单数据类型变量后,该变量作为全局变量使用
C、简单数据类型变量无论是否与全局变量重名,仅在函数内部创建和使用,函数退出后变量被释放
D、全局变量指在函数之外定义的变量,一般没有缩进,在程序执行全过程有效
答案:BCD
A、局部变量指在函数内部使用的变量,当函数退出时,变量依然存在,下次函数调用可以继续使用
B、使用global保留字声明简单数据类型变量后,该变量作为全局变量使用
C、简单数据类型变量无论是否与全局变量重名,仅在函数内部创建和使用,函数退出后变量被释放
D、全局变量指在函数之外定义的变量,一般没有缩进,在程序执行全过程有效
答案:BCD
A. 100
B. 200
C. 400
D. 800
解析:见算法解析
A. 新行和字符串Good
B. r"\nGood"
C. \nGood
D. 字符r、新行和字符串Good
解析:本题主要考查Python输出语句。“\n”表示换行,以r或R开头的字符串表示原始字符串,故print(r"\nGood")的运行结果是\nGood,故本题选C选项。
A. 一个值
B. 二个值
C. 三个值
D. 四个值
解析:彩色图像通常采用红(R)、绿(G)、蓝(B)表示色彩值
A. 增加网络层数,可能会增加测试集分类错误率
B. 增加网络层数,一定会增加训练集分类错误率
C. 减少网络层数,可能会减少测试集分类错误率
D. 减少网络层数,一定会减少训练集分类错误率
解析:一般来说,神经网络层数越多,模型越复杂,对数据的分类效果越好。所以,从最简单的层数开始,增加网络层数都能使得训练误差和测试误差减小。但是,神经网络层数过多容易造成过拟合,即对训练样本分类效果很好,误差小,但是测试误差很大。
为了避免发生过拟合,应该选择合适的神经网络层数并使用正则化技术来让神经网络更加稳健。
A. 性能度量
B. 性能评估
C. 泛化能力评估
D. 性能衡量
A. 统计和分析
B. 挖掘
C. 导入和预处理
D. 采集
解析:正确
A. 如果原始空间是有限维,即属性数有限,那么一定存在一个高维特征空间使样本可分
B. 某个核函数使训练集在特征空间中线性可分,可能原因是欠拟合
C. “软间隔”允许某些样本不满足约束
D. 正则化可理解为一种“罚函数法
解析:见算法解析