答案:A
A. 词向量
B. 词相量
C. 变长
D. 定长
解析:见算法解析
解析:ResNet的一个重要设计原则是:当feature map大小降低一半时,feature map的数量增加一倍,这保持了网络层的复杂度。从图5中可以看到,ResNet相比普通网络每两层间增加了短路机制,这就形成了残差学习,
A. Encoder
B. transformer
C. Decoder
D. dropper
解析:见算法解析
A. 根据内容检索
B. 建模描述
C. 预测建模
D. 寻找模式和规则
解析:根据已知模式在数据集中寻找相似模式属于数据挖掘中的内容检索任务。
A. Transformer
B. Sel-Attention模块
C. RNN循环连接
D. 文本卷积
解析:见算法解析
A. 已知类别的样本质量
B. 分类准则
C. 特征选取
D. 模式相似性测度
解析:有必要的
A. 表示高斯分布的方差
B. 表示高斯分布的均值
C. 表示数据分布的概率
D. 表示数据从某个高斯分布中产生
解析:首选依赖GMM的某个高斯分量的系数概率(因为系数取值在0~1之间,因此可以看做是一个概率取值)选择到这个高斯分量,然后根据这个被选择的高斯分量生成观测数据。然后隐变量就是某个高斯分量是否被选中:选中就为1,否则为0。
A. for a in range(10):
time.sleep(10)
B. while 1<10:
time.sleep(10)
C. while True:
break
D. a = [3,-1,',']
for i in a[:]:
if not a:
break