A、var=var.to("cuda:0")、var=var.to("cuda:1")@var=var.to("cuda:1")@var=var.cuda()、var=var.to("cuda:0")@var=var.cuda()、var=var.to("cuda:1")
B、var=var.to("cuda:1")@var=var.cuda()、var=var.to("cuda:0")@var=var.cuda()、var=var.to("cuda:1")
C、var=var.cuda()、var=var.to("cuda:0")@var=var.cuda()、var=var.to("cuda:1")
D、var=var.cuda()、var=var.to("cuda:1")
答案:C
解析:在pytorch中,cuda()实现数据到GPU转移。
A、var=var.to("cuda:0")、var=var.to("cuda:1")@var=var.to("cuda:1")@var=var.cuda()、var=var.to("cuda:0")@var=var.cuda()、var=var.to("cuda:1")
B、var=var.to("cuda:1")@var=var.cuda()、var=var.to("cuda:0")@var=var.cuda()、var=var.to("cuda:1")
C、var=var.cuda()、var=var.to("cuda:0")@var=var.cuda()、var=var.to("cuda:1")
D、var=var.cuda()、var=var.to("cuda:1")
答案:C
解析:在pytorch中,cuda()实现数据到GPU转移。
A. 输出门
B. 输入门
C. 遗忘门
D. 以上都不对
解析:输入门控制当前时刻的输入信息需要向状态向量中注入哪些信息。
A. 进程管理
B. 存储管理
C. 设备管理
D. 文件管理
A. r(A)>r(B)
B. r(A)=r(B)
C. r(A)<r(B)
D. 无法判定r(A)与r(B)之间的关系
解析:两矩阵可通过初等行变换互相转化,则秩相等
A. 2MB
B. 4MB
C. 16MB
D. 64MB
A. 特征升维
B. 特征降维
C. 防止过拟合
A. 提出假设
B. 设定检验水准
C. 选定统计方法
D. 确定检验假设成立的可能性P大小并判断
A. 两
B. 一
C. 三
D. 四
解析:DSSM使用两个全连接层
A. 完全拷贝
B. 一点点关系都没有
C. 人工神经网络受生物神经网络启发
D. 同一事物的两个名称
解析:人工神经网络受生物神经网络启发
A. 特征编码
B. 缺失值处理
C. 数据标准化
D. 特征离散化
A. cat /proc/meminfo
B. free
C. top
D. dmidecode
解析:解析:在linux系统中要查看内存的大小,可以在终端使用free命令来查看;linux系统 /proc/meminfo文件用于存放内存信息