A、A非负性:dist(Xi,Xj) >= 0;
B、B同一性:dist(Xi,Xj) =0当且仅当Xi = Xj
C、C对称性:dist(Xi,Xj) = dist(Xj,Xi)
D、D直递性:dist(Xi,Xj) <= dist(Xi,Xk) + dist(Xk,Xj)
答案:ABCD
解析:见算法解析
A、A非负性:dist(Xi,Xj) >= 0;
B、B同一性:dist(Xi,Xj) =0当且仅当Xi = Xj
C、C对称性:dist(Xi,Xj) = dist(Xj,Xi)
D、D直递性:dist(Xi,Xj) <= dist(Xi,Xk) + dist(Xk,Xj)
答案:ABCD
解析:见算法解析
A. k-Means
B. k-NN
C. 决策树
A. /etc/netport
B. /etc/services
C. /etc/server
D. /etc/netconf
解析:解析:每个网络服务会绑定自己的端口,/etc/services只是默认端口.上面的文件并不能决定服务用哪个端口
A. DBSCAN
B. C4.5
C. C.K-Mean
D. EM
A. 归一化可以预防过拟合
B. 归一化没有实质作用
C. 归一化将所有数据样本之缩放到0-1之间
D. 归一化是一种激活函数
A. 基本假设包括随机干扰项是均值为0,方差为1的标准正态分布
B. 基本假设包括随机干扰项是均值为0的同方差正态分布
C. 多重共线性会使得参数估计值方差减小
D. 基本假设包括不服从正态分布的随机干扰项
解析:线性回归基本假设包括随机干扰项是均值为0的同方差正态分布
解析:函数必须先定义后, 才能调用
A. 文本到文本的生成
B. 意义到文本的生成
C. 数据到文本的生成
D. 图像到文本的生成
A. 泊松分布
B. 正态分布
C. 伯努利分布
D. 几何分布
解析:中心极限定理指出大量相互独立的随机变量的均值经适当标准化后依分布收敛于正态分布,
其中有 3 个要素:独立、随机、相加。
A. 逆强化学习
B. 时序差分学习
C. 蒙特卡罗强化学习
D. 模仿学习
解析:在现实的强化学习任务中,环境的转移概率、奖赏函数往往很难得知,甚至很难知道环境中一共有多少状态,若学习算法不依赖于环境建模,则称为“免模型学习”,包括蒙特卡罗强化学习和时序差分学习
A. 可预见性
B. 可移植性
C. 可区分性
D. 可推理性
解析:对比学习的核心训练信号是图片的“可区分性”。