A、解决了字典爆炸问题,降低了计算复杂度
B、省去了人工特征工程
C、采用有监督训练,精度较高
D、效果不可控
答案:ABC
解析:见算法解析
A、解决了字典爆炸问题,降低了计算复杂度
B、省去了人工特征工程
C、采用有监督训练,精度较高
D、效果不可控
答案:ABC
解析:见算法解析
解析:Skip-Gram与CBOW都是运用给定窗口半径生成词向量。
A. 多分类学习
B. 对数几率回归
C. 线性判别分析
D. 多分类学习
解析:见算法解析
A. C4.5
B. kNN分类
C. Adaboost
D. k-means
A. k-means
B. 线性回归
C. svm
D. 逻辑回归
A. +=
B. _=
C. *=
D. X=
A. 卷积层
B. 全连接层
C. 池化层
D. 以上都不是
A. 定义一个列表,并初始化它。
B. 定义一个函数,但什么都不做。
C. 定义一个函数,并传递参数。
D. 定义一个空的类。
A. paddle.nn.Linear
B. paddle.nn.Conv2D
C. paddle.nn.MaxPool2D
D. paddle.nn.ReLU
解析:应使用线性层paddle.nn.linear作为全连接层
A. 信噪比
B. 平方误差
C. mAP
D. 分辨率
解析:mAP表示算法处理每张照片时间。