A、根据特征向量X计算样本之间的相似性,选择离中心点最相似的k个样本
B、k近邻既可以用于分类,也可以用于回归
C、k近邻用于分类时,对于新的样本,计算离其最近的k个样本的平均值,作为新样本的预测值
D、k近邻用于分类时,对于新的样本,根据其k个最近邻样本的类别,通过多数表决的方式预测新样本的类别
答案:BD
A、根据特征向量X计算样本之间的相似性,选择离中心点最相似的k个样本
B、k近邻既可以用于分类,也可以用于回归
C、k近邻用于分类时,对于新的样本,计算离其最近的k个样本的平均值,作为新样本的预测值
D、k近邻用于分类时,对于新的样本,根据其k个最近邻样本的类别,通过多数表决的方式预测新样本的类别
答案:BD
A. 一个
B. 两个
C. 多个
D. 无
解析:神经元之间的每个连接都有一个权重。
A.
明斯基
B. 图灵
C. 麦卡锡
D. 冯诺依曼
解析:艾伦·麦席森·图灵,英国数学家、逻辑学家,被称为计算机科学之父,人工智能之父。
解析:盲目搜索方法又叫非启发式搜索,是一种无信息搜索,一般只适用于求解比较简单的问题,盲目搜索通常是按预定的搜索策略进行搜索,而不会考虑到问题本身的特性。常用的盲目搜索有宽度优先搜索和深度优先搜索两种。错误
A. 学习率太小,更新速度慢
B. 学习率过大,可能跨过最优解
C. 学习率也是有网络学习而来
D. 学习率可在网络训练过程中更改
解析:CNN网络设计中,学习率的设置往往对训练收敛起到关键作用,关于学习率的说法,错误的是学习率也是有网络学习而来
解析:字典键不能重复, 值可以重复
A. var=var.to("cuda:0")、var=var.to("cuda:1")
B. var=var.to("cuda:1")
C. var=var.cuda()、var=var.to("cuda:0")
D. var=var.cuda()、var=var.to("cuda:1")
解析:可以将变量名为var的tensor放在GPU上运行的代码是var=var.cuda()、var=var.to("cuda:0")
A. 序列中的元素是无关的
B. 序列中的元素蕴含着顺序的规律
C. 序列中的元素都是随机出现的
D. 序列中的元素都来自同一个数据源
解析:循环神经网络之所以有作用是因为序列中的元素蕴含着顺序的规律
A. LeNet
B. AlexNet
C. LSTM
D. RNN
解析:AlexNet使用了8层卷积神经网络,2012年以很大的优势赢得了ImageNet图像识别挑战赛。
A. 少于2s
B. 大于2s
C. 仍是2s
D. 说不准