A、每个主分量的方差
B、每个主分量的标准差
C、每个主分量的方差贡献率
D、每个主分量的贡献率
答案:C
解析:在主成分分析中,将几个主分量经过线性组合构造为一个综合评价函数时,每个主分量的权数为每个主分量的方差贡献率。
A、每个主分量的方差
B、每个主分量的标准差
C、每个主分量的方差贡献率
D、每个主分量的贡献率
答案:C
解析:在主成分分析中,将几个主分量经过线性组合构造为一个综合评价函数时,每个主分量的权数为每个主分量的方差贡献率。
A. 梯度下降算法是一种使得损失函数最小化的方法
B. 梯度反方向是函数值下降最快方向
C. 梯度方向是函数值下降最快方向
D. 梯度下降算法用来优化深度学习模型的参数
A. 知识图谱
B. 词性标注
C. 关系提取
D. 关系构建
解析:知识图谱是一种基于图的数据结构,由节点和边组成,每个节点表示一个“实体”,每条边为实体与实体之间的“关系”。
A. 4
B. 4+2Δx
C. 4+2(Δx)2
D. 4x
解析:解析:选B.因为Δy=[2(1+Δx)2-1]-(2×12-1)=4Δx+2(Δx)2,所以ΔyΔx=4+2Δx,故选B.
A. var=var.to("cuda:0")、var=var.to("cuda:1")@var=var.to("cuda:1")@var=var.cuda()、var=var.to("cuda:0")@var=var.cuda()、var=var.to("cuda:1")
B. var=var.to("cuda:1")@var=var.cuda()、var=var.to("cuda:0")@var=var.cuda()、var=var.to("cuda:1")
C. var=var.cuda()、var=var.to("cuda:0")@var=var.cuda()、var=var.to("cuda:1")
D. var=var.cuda()、var=var.to("cuda:1")
解析:在pytorch中,cuda()实现数据到GPU转移。
A. a = a + datetime.timedelta(3)
B. a = a + datetime.timedelta(3,0,0)
C. a = a + datetime.timedelta(0,0,3)
D. a = replace(2017,3,25)
解析:见函数库
A. r(A)>r(B)
B. r(A)=r(B)
C. r(A)<r(B)
D. 无法判定r(A)与r(B)之间的关系
解析:两矩阵可通过初等行变换互相转化,则秩相等
解析:正确
A. d = {[1,2]:1, [3,4]:3}
B. d = {(1,2):1, (3,4):3}
C. d = {'张三':1, '李四':2}
D. d = {1:[1,2], 3:[3,4]}
A. k-Means
B. k-NN
C. 决策树
A. CPU
B. GPU
C. FPGA
D. 5G通讯