A、ReLu
B、Softmax
C、Sigmoid
D、Tanh
答案:B
A、ReLu
B、Softmax
C、Sigmoid
D、Tanh
答案:B
A. 池化层
B. 激活函数
C. 卷积层
D. 归一化层
解析:二维卷积层(convolution2d layer),根据输入、卷积核、步长(stride)、填充(padding)、空洞大小(dilations)一组参数计算输出特征层大小。
A. 符号主义
B. 连接主义
C. 行为主义
D. 以上都不是
A. 不同的神经网络结构,层数与神经元数量正相关,层数越多,神经元数量越多
B. 网络结构的层次越深,其学习特征越多,10层的结构要优于5层结构
C. 深层网络结构中,学习到的特征一般与神经元的参数量有关,也与样本的特征多少有关
D. 网络的层次越深,其训练时间越久,5层的网络比4层的训练时间长
解析:不同训练数据集的神经网络结构的最优层数不同,并非层数越深效果越好,训练时间除了与层数有关以外,batchsize大小、学习率、衰减方式等都有很大影响,神经元的数量并不一定与层数正相关
A. C4.5
B. kNN分类
C. Adaboost
D. k-means
A. 建模
B. 测试
C. 聚类
D. 预聚类
A. EASY原则
B. READ原则
C. BASE原则
D. BASIC原则
A. 增加样本数量
B. 增加特征数量
C. 训练更多的迭代次数
D. 采用正则化方法